890 resultados para Tecnologia additiva, modellazione per deposizione di filamento fuso
Resumo:
Oggetto della ricerca è la tematica dell’opposizione parlamentare ed in particolare, il manifestarsi della stessa attraverso l’ostruzionismo praticato nelle assemblee legislative. La comprensione della funzione oppositoria è stata raggiunta assumendo come primigenio modello di riferimento l’esperienza presente nel sistema parlamentare inglese nel quale la dialettica democratica si svolge tra schieramenti nettamente contrapposti. L’approfondimento della figura oppositoria, poi, si è snodata nello studio delle diverse tipologie di opposizione conosciute nelle moderne democrazie, nonchè nella valutazione dei diversi livelli di riconoscimento che questa assume nei moderni contesti giuridici. Passando specificamente all’analisi dell’ostruzionismo parlamentare, la ricerca ha preliminarmente privilegiato lo studio dei soggetti che lo pongono in essere e del movente e delle finalità perseguite attraverso questa estrema forma di contestazione politica. Lo studio delle attività ostruzionistiche ha altresì valutato le modalità di esercizio ed i mezzi impiegati nella sua realizzazione, nonché le questioni di legittimità connesse a tale pratica. Ma è stata l’analisi dei regolamenti parlamentari, che com’è noto hanno subito le più incisive modificazioni quasi sempre in rapporto ad importanti episodi di ostruzionismo, a rappresentare il momento centrale del lavoro. Dopo la stagione di ostruzionismo esasperato degli anni settanta, all’interno del Parlamento sono cambiate le “regole del gioco” (considerate eccessivamente garantiste per le minoranze), in funzione dell’uso e non più dell’abuso del tempo da parte di tutti i soggetti istituzionali. L’effetto di tali riforme è stato quello di riqualificare la dialettica tra maggioranza ed opposizione, in particolare garantendo alla prima strumenti efficaci per conseguire il programma di Governo ed alla seconda strumenti che consentano di rendere visibili le proposte legislative alternative più qualificate. L’analisi dell’atteggiamento politico dell’opposizione parlamentare è stata altresì valutata alla luce degli effetti prodotti dalle ultime riforme elettorali e dalla loro incidenza sulle manifestazioni ostruzionistiche. La transizione (sia pure incompiuta) della forma di governo, attuata attraverso la trasformazione del sistema elettorale, ha segnato il passaggio da un sistema multipolare ad uno bipolare, con i conseguenti riflessi che si sono prodotti sui rapporti di forza tra maggioranza e opposizione. Nell’attuale logica bipolare, rimasta comunque immutata nonostante il ritorno ad un sistema elettorale nuovamente proporzionale caratterizzato dal premio di maggioranza, la riforma elettorale non ha lasciato indifferente l’atteggiarsi dell’ostruzionismo: il maggior potere, non solo numerico, che la maggioranza parlamentare è venuta ad assumere, ha spostato gli equilibri all’interno degli organi elettivi consentendo un’identificazione tra minoranza ed opposizione. Nel capitolo dedicato all’analisi dei regolamenti parlamentari è stata offerta una ricostruzione descrittiva dell’evoluzione subita dai regolamenti ed una di comparazione diacronica dei rimedi progressivamente adottati negli stessi per fronteggiare le possibili manifestazioni ostruzionistiche. Nella prospettiva di evidenziare le attuali dinamiche parlamentari, è stata affrontata una ricostruzione in chiave evolutiva subita dai regolamenti a partire dalla fase pre-repubblicana, fino ai regolamenti attualmente vigenti, ricomprendendo altresì le proposte di modifica allo stato in discussione in Parlamento. Dall’analisi complessiva è emerso che la debole razionalizzazione della forma di governo, il bicameralismo paritario ed indifferenziato, l’assenza di una riserva normativa a favore del governo e di strumenti giuridici per incidere sull’attività del Parlamento, hanno fatto sì che fossero i regolamenti parlamentari a dover supplire alla scarna disciplina costituzionale. A fronte della lenta ed incompiuta transizione della forma di governo parlamentare e dell’evolversi delle tecniche ostruzionistiche, si sono di conseguenza adeguate le misure di contenimento disciplinate nei regolamenti parlamentari. In questi ultimi dunque, è possibile rintracciare l’excursus storico delle misure adottate per regolare i possibili strumenti ostruzionistici previsti e disciplinati nelle procedure ed impiegati dalle minoranze per tentare di impedire la decisione finale. La comparazione, invece, ha evidenziato una progressiva opera di contenimento dei fenomeni ostruzionistici ottenuta essenzialmente con la razionalizzazione delle procedure parlamentari, l’introduzione del metodo della programmazione, del contingentamento dei tempi, nonché l’ampliamento dei poteri discrezionali dei Presidenti di assemblea nella loro opera di garanti della corretta dialettica parlamentare. A completamento del lavoro svolto è stato infine determinante la considerazione della concreta prassi parlamentare riscontrata nel corso delle legislature maggioritarie: la valutazione complessiva dei dati provenienti dal Servizio Studi della Camera, infatti, ha permesso di verificare come si sono manifestate in pratica le tecniche ostruzionistiche impiegate dall’opposizione per contrastare le politiche della maggioranza nel corso della XIII e della XIV Legislatura.
Resumo:
PRESUPPOSTI: Le tachicardie atriali sono comuni nei GUCH sia dopo intervento correttivo o palliativo che in storia naturale, ma l’incidenza è significativamente più elevata nei pazienti sottoposti ad interventi che prevedono un’estesa manipolazione atriale (Mustard, Senning, Fontan). Il meccanismo più frequente delle tachicardie atriali nel paziente congenito adulto è il macrorientro atriale destro. L’ECG è poco utile nella previsione della localizzazione del circuito di rientro. Nei pazienti con cardiopatia congenita sottoposta a correzione biventricolare o in storia naturale il rientro peritricuspidale costituisce il circuito più frequente, invece nei pazienti con esiti di intervento di Fontan la sede più comune di macrorientro è la parete laterale dell’atrio destro. I farmaci antiaritmici sono poco efficaci nel trattamento di tali aritmie e comportano un’elevata incidenza di effetti avversi, soprattutto l’aggravamento della disfunzione sinusale preesistente ed il peggioramento della disfunzione ventricolare, e di effetti proaritmici. Vari studi hanno dimostrato la possibilità di trattare efficacemente le IART mediante l’ablazione transcatetere. I primi studi in cui le procedure venivano realizzate mediante fluoroscopia tradizionale, la documentazione di blocco di conduzione translesionale bidirezionale non era routinariamente eseguita e non tutti i circuiti di rientro venivano sottoposti ad ablazione, riportano un successo in acuto del 70% e una libertà da recidiva a 3 anni del 40%. I lavori più recenti riportano un successo in acuto del 94% ed un tasso di recidiva a 13 mesi del 6%. Questi ottimi risultati sono stati ottenuti con l’utilizzo delle moderne tecniche di mappaggio elettroanatomico e di cateteri muniti di sistemi di irrigazione per il raffreddamento della punta, inoltre la dimostrazione della presenza di blocco di conduzione translesionale bidirezionale, l’ablazione di tutti i circuiti indotti mediante stimolazione atriale programmata, nonché delle sedi potenziali di rientro identificate alla mappa di voltaggio sono stati considerati requisiti indispensabili per la definizione del successo della procedura. OBIETTIVI: riportare il tasso di efficia, le complicanze, ed il tasso di recidiva delle procedure di ablazione transcatetere eseguite con le moderne tecnologie e con una rigorosa strategia di programmazione degli obiettivi della procedura. Risultati: Questo studio riporta una buona percentuale di efficacia dell’ablazione transcatetere delle tachicardie atriali in una popolazione varia di pazienti con cardiopatia congenita operata ed in storia naturale: la percentuale di successo completo della procedura in acuto è del 71%, il tasso di recidiva ad un follow-up medio di 13 mesi è pari al 28%. Tuttavia se l’analisi viene limitata esclusivamente alle IART il successo della procedura è pari al 100%, i restanti casi in cui la procedura è stata definita inefficace o parzialmente efficace l’aritmia non eliminata ma cardiovertita elettricamente non è un’aritmia da rientro ma la fibrillazione atriale. Inoltre, sempre limitando l’analisi alle IART, anche il tasso di recidiva a 13 mesi si abbassa dal 28% al 3%. In un solo paziente è stato possibile documentare un episodio asintomatico e non sostenuto di IART al follow-up: in questo caso l’aspetto ECG era diverso dalla tachicardia clinica che aveva motivato la prima procedura. Sebbene la diversa morfologia dell’attivazione atriale all’ECG non escluda che si tratti di una recidiva, data la possibilità di un diverso exit point del medesimo circuito o di un diverso senso di rotazione dello stesso, è tuttavia più probabile l’emergenza di un nuovo circuito di macrorientro. CONCLUSIONI: L'ablazione trancatetere, pur non potendo essere considerata una procedura curativa, in quanto non in grado di modificare il substrato atriale che predispone all’insorgenza e mantenimento della fibrillazione atriale (ossia la fibrosi, l’ipertrofia, e la dilatazione atriale conseguenti alla patologia e condizione anatomica di base)è in grado di assicurare a tutti i pazienti un sostanziale beneficio clinico. È sempre stato possibile sospendere l’antiaritmico, tranne 2 casi, ed anche nei pazienti in cui è stata documentata una recidiva al follow-up la qualità di vita ed i sintomi sono decisamente migliorati ed è stato ottenuto un buon controllo della tachiaritmia con una bassa dose di beta-bloccante. Inoltre tutti i pazienti che avevano sviluppato disfunzione ventricolare secondaria alla tachiaritmia hanno presentato un miglioramento della funzione sistolica fino alla normalizzazione o al ritorno a valori precedenti la documentazione dell’aritmia. Alla base dei buoni risultati sia in acuto che al follow-up c’è una meticolosa programmazione della procedura e una rigorosa definizione degli endpoint. La dimostrazione del blocco di conduzione translesionale bidirezionale, requisito indispensabile per affermare di aver creato una linea continua e transmurale, l’ablazione di tutti i circuiti di rientro inducibili mediante stimolazione atriale programmata e sostenuti, e l’ablazione di alcune sedi critiche, in quanto corridoi protetti coinvolti nelle IART di più comune osservazione clinica, pur in assenza di una effettiva inducibilità periprocedurale, sono obiettivi necessari per una procedura efficace in acuto e a distanza. Anche la disponibilità di moderne tecnologie come i sistemi di irrigazione dei cateteri ablatori e le metodiche di mappaggio elettroanantomico sono requisiti tecnici molto importanti per il successo della procedura.
Resumo:
L’attività assicurativa svolge un ruolo cruciale nell’economia moderna: riduce le inefficienze di mercato, rendendo possibile per la c.d. economia reale il trasferimento di rischi il cui impatto potrebbe essere devastante qualora l’evento assicurato si verificasse. Questa funzione può naturalmente essere svolta anche in assenza di un canale distributivo indipendente, ma con un significativo aumento dei costi di transazione dovuti, in particolare, a un alto impatto dell’asimmetria informativa per i c.d. rischi non standardizzabili (c.d. commercial lines o business insurance). Tale funzione è tanto più importante nei c.d. cicli di hard market, in cui l’appetito per il rischio delle imprese assicuratrici diminuisce, il prezzo delle coperture aumenta e per le imprese diventa arduo trovare eque coperture sul mercato d’offerta. Lo studio evidenzia che gli intermediari indipendenti italiani non differiscono molto da quelli di altri Paesi per composizione di portafoglio, propensione all’intermediazione di rischi afferenti al segmento Aziende e capacità di selezionare con attenzione i rischi. Nel loro complesso, intermediari indipendenti e in esclusiva sembrano ancorati a modelli e logiche di sviluppo poco orientate al futuro, quali ad esempio poco significative politiche di costruzione di reti secondarie al loro interno. Questo orientamento impedisce a molti di loro di crescere. Le cause ostative alla diffusione del plurimandato sono i costi di transazione e i timori di ritorsione della mandante principale. Dato che l’acquisizione di ulteriori mandati dipende dal numero di clienti in portafoglio in termini di policy sarebbe opportuno, da un lato, riconoscere agli intermediari l’importanza degli investimenti in reti secondarie e, dall’altro, rimuovere tutte gli ostacoli (prevalentemente di natura regolamentare) che impediscono un’ulteriore riduzione dei costi di transazione.
Resumo:
L’attività di ricerca ha riguardato lo studio di popolazioni di cellule staminali mesenchimali umane (MSC) ottenute da molteplici tessuti adulti. Sono state investigate sorgenti di MSC alternative al midollo osseo, libere da conflitti etici, dotate di vantaggi per l’applicabilità clinica che vanno dalla elevata resa nel recupero cellulare alla tessuto-specificità. Le cellule ottenute dalle diverse sorgenti sono state caratterizzate immunofenotipicamente, commissionate mediante protocolli di induzione specifici per i diversi tipi cellulari ed analizzate con opportuni saggi istologici, immunoistochimici, di espressione genica e proteica. Esperimenti di cocoltura hanno permesso la descrizione di capacità immunomodulatorie e trofiche. - La placenta a termine risulta essere una ricca sorgente di cellule staminali mesenchimali (MSC). Dalla membrana amniotica, dal corion e dalla gelatina di Wharton del cordone ombelicale sono state ottenute MSC con potenzialità differenziative verso commissionamenti mesenchimali, con capacità immunomodulatorie e trofiche. Tali tessuti sono ampiamente disponibili, garantiscono una elevata resa nel recupero cellulare e sono liberi da conflitti etici. - Due popolazioni di cellule con caratteristiche di MSC sono state individuate nella mucosa e nella sottomucosa intestinale. Queste cellule possiedono caratteristiche di tessuto-specificità, sono dotate di attività trofiche ed immunomodulatorie che potrebbero essere vantaggiose per approcci di terapia cellulare in patologie quali le Malattie Infiammatorie Croniche Intestinali (IBD). - Popolazioni di cellule staminali con caratteristiche simili alle MSC sono state ottenute da isole pancreatiche. Tali popolazioni possiedono vantaggi di tessuto-specificità per approcci di terapia cellulare per il Diabete. - Sono stati investigati ed individuati marcatori molecolari (molecole HLA-G) correlati con il livello di attività immunomodulatoria delle MSC. La valutazione di tali marcatori potrebbere permettere di determinare l’attività immunosoppressiva a priori del trapianto, con l’obiettivo di scegliere le popolazioni di MSC più adatte per l’applicazione e di definirne il dosaggio. - E’ stato messa a punto una metodica e una strumentazione per il frazionamento di cellule staminali in Campo Flusso in assenza di marcatura (NEEGA-DF). Questa metodica permette di discriminare sottopopolazioni cellulari in base a caratteristiche biofisiche.
Resumo:
Questo lavoro di tesi è finalizzato fondamentalmente allo studio di un’importante problematica che caratterizza gli impianti fotovoltaici: il mismatching, ovvero la disomogeneità nelle caratteristiche elettriche delle celle e quindi dei pannelli fotovoltaici, dal quale scaturisce che la potenza massima, risultante dal collegamento in serie/parallelo dei vari pannelli, è sempre inferiore alla somma delle potenze massime dei pannelli fotovoltaici prima della connessione. In particolare, si è realizzato con il software Simulink un modello flessibile che consente, attraverso una rappresentazione compatta di pochissimi blocchi, di simulare un campo fotovoltaico del tutto arbitrario, in una qualunque condizione operativa di temperatura e di ombreggiamento solare dei pannelli che compongono il campo stesso. A fronte di ciò si è condotta un’analisi approfondita degli effetti del mismatching in un generico campo fotovoltaico sottoposto a diverse disomogeneità per quanto concerne le condizioni operative di temperatura e irraggiamento solare dei vari pannelli. Il software ha permesso, inoltre, di evidenziare l’importanza delle protezioni da impiegare opportunamente negli impianti fotovoltaici; ad esempio, a livello di simulazioni, si è visto come il collegamento di un diodo di by-pass in antiparallelo ai pannelli in ombra permetta di limitare notevolmente l’impatto degli ombreggiamenti. Infine è stato condotto uno studio analitico del mismatching per difformità di fabbricazione di una serie di pannelli dei quali erano noti solo i punti di funzionamento di massima potenza, con la finalità di valutare la possibilità di migliorare la disposizione dei pannelli, e quindi ottimizzare la massima potenza erogabile dal corrispondente campo fotovoltaico.
Resumo:
Il tema sui prezzi di trasferimento inizia a essere un tema d'interesse durante la Prima guerra Mondiale, però acquisisce maggiore importanza come conseguenza de la crescente integrazione dei mercati e della globalizzazione economica ragion per cui le amministrazioni tributarie di tutti i paesi prestano maggiore attenzione. La comunità internazionale ha creato un organismo internazionale che può stabilire le basi per regolare il flusso nelle operazioni di import/export. L'organizzazione per la cooperazione e lo sviluppo economico ("OCDE") è uno di questi organismi internazionali e ha stabilito una serie di direttrici per la regolazione delle operazioni tra imprese associate,direttrice che si basa sul principio di Arm's lenght. La presente tesi investiga e analizza il marco regolatore dei prezzi di trasferimento in Mexico e descrive i tipi di operazioni che si possono realizzare in materia di prezzi di trasferimento. Descrive le principali differenze tra Messico e Italia in materia di prezzi di trasferimento. Descrive i vari metodi per la determinazione di questi prezzi e soprattutto elabora uno studio approfondito su come si svolge un analisi funzionale che è la base del tutto. Documenta come si realizza un analisi delle funzioni aziendali,attivi e rischi analizzando le disposizioni fiscali Messicane, investiga le linee principali di un'analisi economica e in particolare nel caso Messicano analizza il Bollettino B-5 delle norme di informazione finanziarie. Descrive come si realizza un'analisi economica per tipo di operazione, includendo la regola del metodo migliore e la selezione di imprese comparabili includendo un caso concreto di un'impresa.
Resumo:
Il presente lavoro affronta la questione del rapporto tra l’azione cartolare e l’azione causale nell’ambito dei titoli cambiari; nonché il problema della relazione, di diritto sostanziale, che intercorre tra i menzionati titoli ed i rapporti causali che soggiacciono alla loro emissione e circolazione; con costante riferimento sia al diritto italiano che al diritto paraguaiano. Vengono così analizzati i concetti tradizionali della causa della cambiale e della convenzione esecutiva, per poi passare alla analisi della funzione economica tipica dei titoli cambiari e, segnatamente, la previsione del loro rilascio o negoziazione nell’economia del rapporto fondamentale. Si affrontano, così, i noti problemi della novazione e della dazione in pagamento attuate mediante questi titoli, tenendo in particolare considerazione anche la struttura delegatoria che presentano alcuni di essi. Particolare attenzione viene dedicata al fatto che, nella maggior parte dei casi, le parti non prevedono specificamente l’incidenza del rilascio o girata del titolo cambiario sul rapporto sottostante. Per questa ragione, si mette in luce che nella maggior parte dei casi la fattispecie configura una modificazione della relazione causale intercorrente tra le parti, proprio per l’assenza di pattuizione espressa al riguardo. Strettamente connesso con quest’aspetto risulta l’esame dell’emissione dei titoli cambiari solvendi causa, problematica nell’ambito della quale non si è mancato di tener conto della disciplina antiriciclaggio e dei moderni contributi dottrinari sull’oggetto dell’obbligazione pecuniaria. Viene, infine, vagliata anche l’incidenza dell’ulteriore circolazione del titolo sul rapporto causale che giustifica il suo possesso da parte del girante; per poi passare, come conclusione del lavoro, a stabilire l’interpretazione non solo processuale ma anche sostanziale che deve darsi, alla luce dei risultati raggiunti, alla disciplina degli artt. 66 della legge cambiaria e 58 della legge assegni.
Resumo:
Uno dei principali ambiti di ricerca dell’intelligenza artificiale concerne la realizzazione di agenti (in particolare, robot) in grado di aiutare o sostituire l’uomo nell’esecuzione di determinate attività. A tal fine, è possibile procedere seguendo due diversi metodi di progettazione: la progettazione manuale e la progettazione automatica. Quest’ultima può essere preferita alla prima nei contesti in cui occorra tenere in considerazione requisiti quali flessibilità e adattamento, spesso essenziali per lo svolgimento di compiti non banali in contesti reali. La progettazione automatica prende in considerazione un modello col quale rappresentare il comportamento dell’agente e una tecnica di ricerca (oppure di apprendimento) che iterativamente modifica il modello al fine di renderlo il più adatto possibile al compito in esame. In questo lavoro, il modello utilizzato per la rappresentazione del comportamento del robot è una rete booleana (Boolean network o Kauffman network). La scelta di tale modello deriva dal fatto che possiede una semplice struttura che rende agevolmente studiabili le dinamiche tuttavia complesse che si manifestano al suo interno. Inoltre, la letteratura recente mostra che i modelli a rete, quali ad esempio le reti neuronali artificiali, si sono dimostrati efficaci nella programmazione di robot. La metodologia per l’evoluzione di tale modello riguarda l’uso di tecniche di ricerca meta-euristiche in grado di trovare buone soluzioni in tempi contenuti, nonostante i grandi spazi di ricerca. Lavori precedenti hanno gia dimostrato l’applicabilità e investigato la metodologia su un singolo robot. Lo scopo di questo lavoro è quello di fornire prova di principio relativa a un insieme di robot, aprendo nuove strade per la progettazione in swarm robotics. In questo scenario, semplici agenti autonomi, interagendo fra loro, portano all’emergere di un comportamento coordinato adempiendo a task impossibili per la singola unità. Questo lavoro fornisce utili ed interessanti opportunità anche per lo studio delle interazioni fra reti booleane. Infatti, ogni robot è controllato da una rete booleana che determina l’output in funzione della propria configurazione interna ma anche dagli input ricevuti dai robot vicini. In questo lavoro definiamo un task in cui lo swarm deve discriminare due diversi pattern sul pavimento dell’arena utilizzando solo informazioni scambiate localmente. Dopo una prima serie di esperimenti preliminari che hanno permesso di identificare i parametri e il migliore algoritmo di ricerca, abbiamo semplificato l’istanza del problema per meglio investigare i criteri che possono influire sulle prestazioni. E’ stata così identificata una particolare combinazione di informazione che, scambiata localmente fra robot, porta al miglioramento delle prestazioni. L’ipotesi è stata confermata applicando successivamente questo risultato ad un’istanza più difficile del problema. Il lavoro si conclude suggerendo nuovi strumenti per lo studio dei fenomeni emergenti in contesti in cui le reti booleane interagiscono fra loro.
Resumo:
Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.
Resumo:
Un percorso di ricerca che interessa la città di New York prevede inevitabilmente nel suo sviluppo un approfondimento sulle diverse tematiche riguardanti in primis la città americana intesa in termini generali e, parallelamente, tutti quegli elementi che sono riconoscibili quali punti focali per l’isola di Manhattan. La lettura delle mappe storiche diventa un elemento fondamentale su cui basare un’analisi relativa alla crescita e al tessuto urbano; una particolare attenzione alle trasformazioni della griglia stradale che impone alla struttura della città un sistema rigido e che contemporaneamente sviluppa elementi di contraddizione al suo interno. E’ necessario quindi indagare il tema della griglia nelle città di fondazione e nelle varianti storiche. Se da un lato si è svolta una lettura storica, dall’altro viene affiancata una lettura critica, che mira principalmente all’analisi delle “crisi della regolarità”, cioè a quei punti in cui la struttura della griglia diviene più fragile o addirittura viene negata dall’assetto della città. Sulla scia delle riflessioni di Mario Gandelsonas sulle città americane, si è voluto a tracciare non solo un percorso analitico, ma anche una ricerca più personale, con il tentativo di indagare la città in relazione dicotomica rispetto alla sua architettura, riflettendo sul modo in cui l’una si interfaccia con l’altra in un rapporto di antagonismo che è andato crescendo giorno dopo giorno. Un rapporto di antagonismo, ma anche di inevitabile collaborazione tra le parti in un quadro che non è mai fisso e che coinvolge due elementi in continuo mutamento, genera un sistema di necessarie articolazioni, che non si presentano mai come una situazione stabile tra i due elementi, ma come una relazione tra due prassi che cambiano nel tempo. I temi progettuali chiave non sono frutto di una decisione preventiva, ma, viceversa, emergono come risultato della prima parte di questo lavoro. La ricerca è stata così indirizzata verso alcune questioni che sono apparse più rilevanti anche in ai fini progettuali: l’infrastruttura, approfondita mediante il caso studio del Port Authority Bus Terminal di Pier Luigi Nervi; l’edilizia sociale, che si presenta sempre con tipologie anomale rispetto al blocco newyorkese, come nel caso di Stuyvesant Town; ed i margini della città, ex zone industriali, oggi al centro del dibattito sulla riqualificazione di aree a forte potenziale naturalistico. I punti qui esaminati evidenziano e sintetizzano le problematiche del Waste Transfer previsto dall’amministrazione newyorkese nell’area sud di Manhattan.
Resumo:
La crescente disponibilità di dispositivi meccanici e -soprattutto - elettronici le cui performance aumentano mentre il loro costo diminuisce, ha permesso al campo della robotica di compiere notevoli progressi. Tali progressi non sono stati fatti unicamente per ciò che riguarda la robotica per uso industriale, nelle catene di montaggio per esempio, ma anche per quella branca della robotica che comprende i robot autonomi domestici. Questi sistemi autonomi stanno diventando, per i suddetti motivi, sempre più pervasivi, ovvero sono immersi nello stesso ambiente nel quale vivono gli essere umani, e interagiscono con questi in maniera proattiva. Essi stanno compiendo quindi lo stesso percorso che hanno attraversato i personal computer all'incirca 30 anni fa, passando dall'essere costosi ed ingombranti mainframe a disposizione unicamente di enti di ricerca ed università, ad essere presenti all'interno di ogni abitazione, per un utilizzo non solo professionale ma anche di assistenza alle attività quotidiane o anche di intrattenimento. Per questi motivi la robotica è un campo dell'Information Technology che interessa sempre più tutti i tipi di programmatori software. Questa tesi analizza per prima cosa gli aspetti salienti della programmazione di controllori per robot autonomi (ovvero senza essere guidati da un utente), quindi, come l'approccio basato su agenti sia appropriato per la programmazione di questi sistemi. In particolare si mostrerà come un approccio ad agenti, utilizzando il linguaggio di programmazione Jason e quindi l'architettura BDI, sia una scelta significativa, dal momento che il modello sottostante a questo tipo di linguaggio è basato sul ragionamento pratico degli esseri umani (Human Practical Reasoning) e quindi è adatto alla implementazione di sistemi che agiscono in maniera autonoma. Dato che le possibilità di utilizzare un vero e proprio sistema autonomo per poter testare i controllori sono ridotte, per motivi pratici, economici e temporali, mostreremo come è facile e performante arrivare in maniera rapida ad un primo prototipo del robot tramite l'utilizzo del simulatore commerciale Webots. Il contributo portato da questa tesi include la possibilità di poter programmare un robot in maniera modulare e rapida per mezzo di poche linee di codice, in modo tale che l'aumento delle funzionalità di questo risulti un collo di bottiglia, come si verifica nella programmazione di questi sistemi tramite i classici linguaggi di programmazione imperativi. L'organizzazione di questa tesi prevede un capitolo di background nel quale vengono riportare le basi della robotica, della sua programmazione e degli strumenti atti allo scopo, un capitolo che riporta le nozioni di programmazione ad agenti, tramite il linguaggio Jason -quindi l'architettura BDI - e perché tale approccio è adatto alla programmazione di sistemi di controllo per la robotica. Successivamente viene presentata quella che è la struttura completa del nostro ambiente di lavoro software che comprende l'ambiente ad agenti e il simulatore, quindi nel successivo capitolo vengono mostrate quelle che sono le esplorazioni effettuate utilizzando Jason e un approccio classico (per mezzo di linguaggi classici), attraverso diversi casi di studio di crescente complessità; dopodiché, verrà effettuata una valutazione tra i due approcci analizzando i problemi e i vantaggi che comportano questi. Infine, la tesi terminerà con un capitolo di conclusioni e di riflessioni sulle possibili estensioni e lavori futuri.
Resumo:
La regione Puglia negli ultimi anni è stata interessata da un importante aumento dell’urbanizzazione e ad una crescita di diverse attività economiche. Visto che questo sviluppo si concentra soprattutto nelle zone costiere ne consegue una sempre maggior influenza sulle diverse risorse marine (Cardillo et al. 2004; Mora 2008). Numerosi studi in varie parti del mondo (Airoldi & Beck 2007; Gray et al. 1990; Strain & Craig 2011; Thrush et al. 2006; Thrush et al. 1998) hanno mostrato come l’instaurarsi di attività economiche e la relativa creazione di impianti, strutture artificiali, e sviluppo urbano ad esse correlate, inducano forti modificazioni nei pattern naturali di distribuzione delle diverse specie dei popolamenti naturali. Questo studio ha interessato il golfo di Taranto in quanto essa è una delle principali città di questa regione, e può essere considerato un eccellente caso di studio. La finalità di questa tesi è analizzare i pattern di distribuzione del coralligeno in questo tratto di costa e di discuterli tenendo conto degli effetti delle pressioni antropiche presenti nell’area. Dall’analisi dei dati raccolti per mezzo di un campionamento fotografico, risulta che il coralligeno delle diverse località studiate, è caratterizzato da elevata variabilità, in termini di struttura del popolamento, già alla più piccola scala spaziale indagata, quella delle repliche. Tale variabilità, secondo l’ipotesi formulata, può essere causata da una combinazione di processi diversi, che operano a scale differenti. Certamente, le attività antropiche presenti nell’area di studio, sia singolarmente che in combinazione tra loro, aggiungono una sorgente ulteriore di variabilità, plausibilmente determinando cambiamenti diversi a seconda del tipo di attività che insiste nelle differenti aree. Da questo studio, pertanto, emergono alcune informazioni inerenti i pattern di distribuzione del popolamento a coralligeno nell’area del golfo di Taranto e alla possibile influenza di diverse fonti di impatto. Diverse sono le combinazioni di stress antropici analizzate e tutte causano modifiche ai popolamenti. I risultati ottenuti potrebbero aiutare gli organi competenti a selezionare modalità di espansione urbana ed industriale che tengano conto delle conseguenze di tale sviluppo sugli ambienti naturali costieri della Puglia.
Resumo:
L’enzima IDO interviene nella via di degradazione del triptofano, essenziale per la vita cellulare; l’iperespressione di IDO favorisce la creazione di un microambiente immunotollerante. Nelle LAM IDO è funzionalmente attivo nelle cellule blastiche e determina l’acquisizione di un fenotipo regolatorio da parte delle cellule T alloreattive; l’espressione della proteina aumenta in modo consensuale con l’evoluzione clinica della patologia. Scopo della Tesi è indagare l’esistenza di una correlazione tra l’iperespressione di IDO da parte delle cellule leucemiche, le caratteristiche di rischio alla diagnosi e l’outcome dei pazienti. Sono stati esaminati 45 pazienti adulti affetti da LAM afferiti all’Istituto di Ematologia di Bologna. I pazienti sono stati stratificati a seconda di: età di insorgenza della leucemia, secondarietà a Mielodisplasia o radio chemioterapia, iperleucocitosi, citogenetica, biologia molecolare (sono state valutate le alterazioni a carico dei geni FLT3 ed NPM). I pazienti sono stati analizzati per l’espressione del gene IDO mediante RT-PCR, seguita da Western Blot, allo scopo di stabilire la presenza di una proteina attiva; successivamente si è proceduto a verificare l’esistenza di una correlazione tra l’espressione di IDO e le caratteristiche di rischio alla diagnosi per identificare una relazione tra l’espressione del gene ed un subset di pazienti a prognosi favorevole o sfavorevole. Dei 45 pazienti adulti affetti da LAM il 28,9% è risultato negativo per l’espressione di IDO, mentre il rimanente 71,1% è risultato positivo ed è stato suddiviso in tre ulteriori categorie, in base ai livelli di espressione. I dati non sembrano al momento suggerire l’esistenza di una correlazione tra l’espressione di IDO e le caratteristiche di rischio alla diagnosi. Nel gruppo di pazienti ad elevata espressione di IDO si riscontra un rate di resistenza alla chemioterapia di induzione più elevato, con una quota di pazienti resistenti pari al 71,4%, contro il 23,1% nel gruppo di pazienti IDO-negativi.
Resumo:
The research activities described in the present thesis have been oriented to the design and development of components and technological processes aimed at optimizing the performance of plasma sources in advanced in material treatments. Consumables components for high definition plasma arc cutting (PAC) torches were studied and developed. Experimental activities have in particular focussed on the modifications of the emissive insert with respect to the standard electrode configuration, which comprises a press fit hafnium insert in a copper body holder, to improve its durability. Based on a deep analysis of both the scientific and patent literature, different solutions were proposed and tested. First, the behaviour of Hf cathodes when operating at high current levels (250A) in oxidizing atmosphere has been experimentally investigated optimizing, with respect to expected service life, the initial shape of the electrode emissive surface. Moreover, the microstructural modifications of the Hf insert in PAC electrodes were experimentally investigated during first cycles, in order to understand those phenomena occurring on and under the Hf emissive surface and involved in the electrode erosion process. Thereafter, the research activity focussed on producing, characterizing and testing prototypes of composite inserts, combining powders of a high thermal conductibility (Cu, Ag) and high thermionic emissivity (Hf, Zr) materials The complexity of the thermal plasma torch environment required and integrated approach also involving physical modelling. Accordingly, a detailed line-by-line method was developed to compute the net emission coefficient of Ar plasmas at temperatures ranging from 3000 K to 25000 K and pressure ranging from 50 kPa to 200 kPa, for optically thin and partially autoabsorbed plasmas. Finally, prototypal electrodes were studied and realized for a newly developed plasma source, based on the plasma needle concept and devoted to the generation of atmospheric pressure non-thermal plasmas for biomedical applications.
Resumo:
Obiettivo: studio longitudinale di una coorte di gravidanze gemellari e valutazione di eventuali correlazioni tra specifici parametri cardiaci materni ed esito sfavorevole della gravidanza. Metodi: Sono state arruolate in modo prospettico donne con gravidanze gemellari, sottoposte a controlli seriati della funzione cardiaca materna ( 20-23 settimane; 26-29 settimane e 30-33 settimane). Le pazienti in cui il parto si è verificato prima della 34°settimana compiuta di gestazione sono state escluse a priori dallo studio. Specifici parametri cardiaci campionati sono stati confrontati tra il gruppo di gravidanze con esito positivo ed il gruppo di pazienti che hanno sviluppato complicanze nel corso della gravidanza quali: preeclampsia o ipertensione gestazionale, basso peso alla nascita ( SGA: peso neonatale di uno o entrambi i feti < 5° centile per l’epoca di gestazione). Risultati: sono state incluse nello studio 28 gravidanze gemellari,di cui 8 complicate. Durante ogni visita abbiamo osservato un aumento significativo della gittata cardiaca ( CO ) e sistolica ( SV ) ed una caduta delle resistenze vascolari totali ( TVR ) nelle gravidanze gemellari normali vs complicate. Inoltre, CO, pressione arteriosa (BP), frequenza cardiaca ( HR ) e TVR son rimaste invariate nel corso dei controlli ambulatoriali per le gravidanze con esiti sfavorevole, mentre mostravano modificazioni significative ( CO, HR e BDP in aumento; TVR in diminuzione ) nel gruppo di pazienti con esito favorevole della gravidanza. Conclusioni: La valutazione longitudinale della funzione cardiaca materna sembra dimostrare una significativa differenza tra i valori dei parametri cardiaci materni delle gravidanze multiple non complicate, rispetto a quelle complicate da preeclampsia o neonati SGA.