383 resultados para Doru lineare
Resumo:
La segmentazione prevede la partizione di un'immagine in aree strutturalmente o semanticamente coerenti. Nell'imaging medico, è utilizzata per identificare, contornandole, Regioni di Interesse (ROI) clinico, quali lesioni tumorali, oggetto di approfondimento tramite analisi semiautomatiche e automatiche, o bersaglio di trattamenti localizzati. La segmentazione di lesioni tumorali, assistita o automatica, consiste nell’individuazione di pixel o voxel, in immagini o volumi, appartenenti al tumore. La tecnica assistita prevede che il medico disegni la ROI, mentre quella automatica è svolta da software addestrati, tra cui i sistemi Computer Aided Detection (CAD). Mediante tecniche di visione artificiale, dalle ROI si estraggono caratteristiche numeriche, feature, con valore diagnostico, predittivo, o prognostico. L’obiettivo di questa Tesi è progettare e sviluppare un software di segmentazione assistita che permetta al medico di disegnare in modo semplice ed efficace una o più ROI in maniera organizzata e strutturata per futura elaborazione ed analisi, nonché visualizzazione. Partendo da Aliza, applicativo open-source, visualizzatore di esami radiologici in formato DICOM, è stata estesa l’interfaccia grafica per gestire disegno, organizzazione e memorizzazione automatica delle ROI. Inoltre, è stata implementata una procedura automatica di elaborazione ed analisi di ROI disegnate su lesioni tumorali prostatiche, per predire, di ognuna, la probabilità di cancro clinicamente non-significativo e significativo (con prognosi peggiore). Per tale scopo, è stato addestrato un classificatore lineare basato su Support Vector Machine, su una popolazione di 89 pazienti con 117 lesioni (56 clinicamente significative), ottenendo, in test, accuratezza = 77%, sensibilità = 86% e specificità = 69%. Il sistema sviluppato assiste il radiologo, fornendo una seconda opinione, non vincolante, adiuvante nella definizione del quadro clinico e della prognosi, nonché delle scelte terapeutiche.
Resumo:
L'obiettivo di questa tesi è la caratterizzazione dei gruppi di Galois di alcune classi di polinomi separabili e risolubili per radicali. Questa classificazione si baserà sulle proprietà di primitività e imprimitività di tali gruppi, proprietà che descrivono il carattere della loro azione permutativa sulle radici dei polinomi. Da tale analisi potremo inoltre dedurre importanti informazioni sui polinomi, i quali, a loro volta, saranno detti primitivi o imprimitivi. Dopo aver ricordato alcune definizioni e risultati fondamentali di Teoria di Galois e Teoria dei gruppi, studieremo alcuni gruppi di permutazioni, concentrandoci in particolare sul gruppo lineare affine e sul prodotto intrecciato di due gruppi di permutazioni: tali oggetti costituiscono, infatti, gli strumenti principali per la descrizione dei gruppi di Galois che affronteremo negli ultimi capitoli. Nel Capitolo 3, in particolare, ci concentreremo su polinomi imprimitivi di grado p², con p primo. Nel quarto, invece, dimostreremo un potente Teorema che fornisce una notevole caratterizzazione dei gruppi di Galois di tutti i polinomi primitivi e risolubili per radicali.
Resumo:
La ricerca di esopianeti è un ambito astrofisico in continua evoluzione. Nuovi metodi vengono proposti con l’obiettivo di individuare pianeti con una varietà di caratteristiche sempre più ampia, per poter definire al meglio la storia di formazione ed evoluzione dei sistemi planetari. Un metodo recente in grado di caratterizzare pianeti di piccola massa è lo studio della variazione del tempo di transito (TTV), basato sulla modulazione del periodo orbitale di un pianeta noto causata dalla perturbazione di un corpo aggiuntivo. In questo lavoro proponiamo l’analisi delle curve di luce del pianeta XO-2Nb al fine di individuare TTV. Questo sistema è di particolare rilevanza poiché ospitato dalla prima stella binaria wide in cui entrambe le componenti presentano un proprio sistema planetario. Tra le due stelle solo XO-2N presenta un pianeta transitante, requisito per l’applicazione del metodo proposto. L’analisi dei dati è stata svolta utilizzando il metodo della fotometria differenziale di apertura, normalizzando la curva di luce del target ad altre due stelle di riferimento presenti nel campo di vista dello strumento. I risultati ottenuti evidenziano l’assenza di variazioni di periodo orbitale per XO-2Nb e sono consistenti con un’effemeride lineare. La nuova effemeride calcolata risulta tre volte più precisa rispetto al più recente studio in letteratura, e permetterà di predire futuri transiti con una precisione migliore di un minuto fino al 2035. Abbiamo stabilito un limite superiore all’ampiezza del TTV permessa dai nostri dati, ricavando il valore massimo della massa di un eventuale pianeta perturbatore, pari a 0.15 masse terrestri. Abbiamo ricavato in maniera indipendente i parametri fisici ed orbitali di XO-2Nb, confermando e raffinando i valori presenti in letteratura. I risultati ottenuti suggeriscono che, in determinati casi, l’analisi fotometrica eseguita utilizzando telescopi medio-piccoli da terra può essere competitiva con i più avanzati telescopi spaziali.
Resumo:
Il Parmigiano Reggiano è un formaggio a Denominazione d’Origine Protetta (DOP), a pasta dura, cotta, granulosa, a lunga stagionatura, prodotto con latte crudo, parzialmente scremato, proveniente da vacche alimentate prevalentemente con foraggi della zona d’origine. La trasformazione del latte in questo formaggio DOP è ancora basata su una tecnologia artigianale legata all’esperienza empirica dei casari e tutelata dal Consorzio del Parmigiano Reggiano. L’obiettivo della tesi è stato quello di analizzare l’attività dell’acqua e la texture di 14 punte di formaggio “Parmigiano Reggiano”, provenienti da diverse realtà casearie nelle provincie di Parma, Reggio Emilia, Modena, Bologna alla sinistra del fiume Reno e Mantova, alla destra del fiume Po aderenti al consorzio di tutela; al fine di trarre conclusioni sulla struttura di tali campioni. In dettaglio, per valutare in modo sistematico e comprensivo la texture dei campioni è stata valutata mediante i test di Taglio, Texture Profile Analysis (TPA) e Three Point Bending. Al fine di valutare l’effetto della temperatura, le medesime analisi di texture sono state anche effettuate su alcuni campioni di formaggio condizionati alle temperature di 8, 20, 25 e 30°C. I campioni di Parmigiano Reggiano provenienti da diversi caseifici hanno presentato alcune differenze significative in termini di attività dell’acqua, durezza di taglio, elasticità, coesività, gommosità, forza massima, distanza lineare e fratturabilità. Queste variabilità potrebbero essere attribuite a diversità e peculiarità nel processo produttivo e nell’esperienza dei singoli caseari. Inoltre, è stato evidenziato un ruolo significativo delle temperature dei campioni alla quale si effettuano le analisi di texture. In particolare, i campioni condizionati a 8°C rispetto alle altre temperature hanno presentato differenze significative in tutti i parametri di texture analizzati eccetto che per quelli di elasticità e gommosità determinati con il test TPA.
Resumo:
Una sempre crescente quantità di informazione digitale viene condivisa tra miliardi di dispositivi connessi in ogni angolo del pianeta. Per riuscire a sfruttare una banda più ampia ed aumentare la velocità di trasmissione dei dati, i prossimi standard di telecomunicazioni wireless dovranno adoperare frequenze operative sempre più alte, cercando di rispettare stringenti specifiche in termini di affidabilità ed efficienza energetica. In generale, le prestazioni di un transistor dipenderanno dalle terminazioni a cui esso è collegato. In un setup di caratterizzazione e test, è possibile, tramite un metodo noto come load pull attivo, sintetizzare un determinato valore di impedenza ad uno o più piani di riferimento all'interno di un circuito. Questa strategia si basa in generale sulla manipolazione del rapporto tra onde entranti ed uscenti da un piano di riferimento del dispositivo. Se da una parte tecniche di load pull attivo a banda larga a radiofrequenza hanno ricevuto un notevole interesse sia commerciale che accademico, dall'altra le strategie per la sintesi di impedenze presenti al terminale di alimentazione dell'amplificatore, sono state meno investigate. Questo elaborato si propone di introdurre un algoritmo per il load pull attivo a banda base per amplificatori per applicazioni RF. Dopo un'introduzione sui modelli comportamentali degli amplificatori, è stato considerato il problema degli effetti di memoria. È stata poi descritta la tecnica per l'emulazione di impedenze. Dapprima, è stato considerato il caso lineare. Poi, tramite il design di un amplificatore di potenza per applicazioni a radio frequenza usato come device under test (DUT), sono stati affrontati due esempi in presenza di non linearità, verificando la correttezza della tecnica proposta tramite l'uso di simulazioni.
Resumo:
La circolazione sanguigna nell’organismo umano sfrutta un meccanismo ad hoc per trasportare gli scarti e tutte le sostanze necessarie al metabolismo cellulare. Il cuore rappresenta la pompa che dà al sangue la spinta per scorrere nei vasi e il ventricolo sinistro è la cavità cardiaca che contribuisce di più allo svolgimento di questo lavoro. Il modello pulsatile utilizzato in questo elaborato per la circolazione sistemica deriva dalla semplificazione di un modello a parametri concentrati precedentemente pubblicato. Nell’analogo elettrico di questo modello sono state incluse la resistenza al ritorno venoso, la resistenza al deflusso aortico e la resistenza arteriolare sistemica. Inoltre, la funzione di pompa del ventricolo è definita dalla complianza ventricolare tempo-variante e dal suo inverso, l’elastanza. Le valvole ventricolari sono simulate da due diodi e le capacità venose e arteriose tengono conto del comportamento elastico dei rispettivi compartimenti. Considerando il lavoro delle valvole, il ciclo cardiaco è stato suddiviso in sette intervalli temporali, per ciascuno dei quali è stato disegnato un analogo elettrico che descrive il comportamento degli elementi circuitali in quello specifico intervallo temporale. Attraverso l’applicazione delle leggi di Kirchoff agli analoghi elettrici sopra citati si scrivono le equazioni differenziali nelle funzioni incognite carica elettrica sulla complianza ventricolare e tensione arteriosa. Per ottenere le espressioni analitiche della soluzione delle equazioni differenziali si approssima l’elastanza con una funzione lineare a tratti e si utilizzano i teoremi per la risoluzione delle equazioni differenziali di ordine uno non omogenee. Le espressioni analitiche vengono implementate su Matlab, che consente di ottenere dei grafici della pressione venosa, arteriosa e ventricolare, dell’elastanza, del volume ventricolare e della portata aortica anche in risposta ad una diminuzione della resistenza arteriolare sistemica.
Resumo:
La maggiore consapevolezza dell’importanza dello sfruttamento di risorse ha contribuito a favorire una transizione da un modello di economia lineare ad uno circolare, basato sulla chiusura dei cicli di risorse e l’allungamento del ciclo di vita di un prodotto o servizio. La simbiosi Industriale si colloca in questo contesto come strategia per l’ottimizzazione delle risorse e prevede il trasferimento di scarti e sottoprodotti da un’azienda output ad una input, che le utilizzerà come risorse per i loro processi. L’instaurazione di rapporti di simbiosi industriale non è così immediata e necessita di un ente esterno che faciliti la collaborazione tra le aziende e fornisca supporto tecnico per la sua implementazione. In Italia ENEA rappresenta il principale ente di riferimento per l’implementazione di progetti di simbiosi industriale e ha sviluppato un ecosistema di strumenti al fine di guidare le aziende all’interno di percorsi di simbiosi industriale. L’obiettivo di questo lavoro è quello di formulare una metodologia per la valutazione preliminare di potenziali sinergie a livello territoriale, utilizzando dati storici riguardanti sinergie e presentare uno strumento applicativo basato su di essa. La prima parte è del lavoro è dedicata ad una ricerca bibliografica sui temi della simbiosi industriale, evidenziando vantaggi e il ruolo di ENEA. Di seguito verrà illustrata la metodologia sviluppata con i suoi step operativi, il cui obiettivo è quello di valutare la presenza di potenziali sinergie a livello territoriale, partendo da un database di aziende classificate per codici Ateco e uno di sinergie già attivate in precedenza. Infine, verrà presentato lo strumento di lavoro Microsoft Excel, programmato in VBA, che permette l’applicazione della metodologia. Per mostrarne il funzionamento si utilizzano dati estratti dalla banca dati AIDA per le aziende e dati dai database MAESTI e IS-DATA per le sinergie.
Resumo:
Il presente studio analizza l’attuale tendenza del sistema televisivo statunitense all’ibridazione con i modelli affermati già nell’era dominata dai network prima, e dalla CATV poi. Dopo una mappatura storica che permette di comprendere e apprezzare i continui cambiamenti dell’industria televisiva, lo scritto si concentra sull’analisi delle varie strategie manageriali (e sulle retoriche) che stanno alla base delle prime fasi dei servizi non lineari. Si esaminano inoltre le modalità che governano ora i tentativi di recupero di esperienze che sembravano ormai superate per lasciare spazio proprio ai modelli OTT. Infatti, data la non sostenibilità sul lungo periodo delle forme economiche, distributive, produttive, etc., adottate delle piattaforme streaming come Netflix, Amazon Prime Video e Disney+, queste cercano ora di ricostruire una dimensione lineare, alla cui matrice troviamo la weekly release, la pubblicità, la sincronizzazione sociale, la diretta e altro ancora – si pensi ai casi Pluto TV e Peacock TV, esempi di servizi HVOD (Hybrid Video on Demand) che stanno tracciando dei nuovi percorsi pur senza dimenticare ciò che ha funzionato in passato.