999 resultados para Modelli termici IGBT


Relevância:

20.00% 20.00%

Publicador:

Resumo:

I sistemi fiscali contemporanei applicano l’imposizione diretta a persone fisiche e persone giuridiche. In ciascuno Stato tuttavia una varietà di figure intermedie, definibili non- corporate-entities, sono dotate di gradi diversi di soggettività di diritto. Fra queste rientrano le partnership. Con l’obiettivo di ricondurre la fiscalità delle partnership all’interno del regime domestico generale previsto per persone fisiche o giuridiche, ogni Stato impiega proprie regole di caratterizzazione fiscale delle partnership. Di conseguenza, ciascuno Stato può considerare le partnership fiscalmente opache o trasparenti. Ciò vale sia per le partnership domestiche che per quelle estere. Quando l’attività di una partnership domestica presenta elementi di internazionalità, gli approcci domestici di caratterizzazione fiscale interferiscono spesso con quelli adottati da altri Stati. Tali inevitabili conflitti producono un alto rischio di doppia imposizione o doppia non imposizione dei redditi internazionali. La soluzione di tale genere di problemi non trova sistematica considerazione né nei Trattati fiscali, né nei Trattati UE così come interpretati dalla CGUE. Essa resta affidata all’autonoma iniziativa di ciascuno Stato. Questo studio esamina l’imposizione diretta delle partnerships internazionali che presentino un qualche collegamento con il sistema fiscale italiano. Esso inoltre propone una comparazione con altri sistemi fiscali selezionati sulla base di alcuni criteri. La comparazione mira alla individuazione dei problemi scaturenti dalla simultanea applicazione della tassazione italiana ed estera, considerando il ruolo spesso modesto dei Trattati fiscali. Ove un Trattato includa clausole specifiche per le partnership, ne viene esaminato l’effetto. Se i Paesi considerati sono Stati membri UE, i risultati dell’analisi sono esaminati rispetto alla normativa europea, con particolare riguardo ai profili di compatibilità con le libertà del Trattato UE e con i relativi orientamenti della CGUE.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il tumore non è altro che una massa abnorme di tessuto che cresce in eccesso ed in modo scoordinato rispetto ai tessuti normali, e che persiste in questo stato dopo la cessazione degli stimoli che hanno indotto il processo. Questa patologia può presentarsi all’interno del corpo umano in svariate posizioni e forme; la più diffusa forma di tumore è quello epatico, particolarmente discusso in questo studio. Dato il continuo sviluppo di questa malattia, la ricerca ha richiesto un altrettanto miglioramento della tecnologia per eliminarla. Gli studi hanno portato a sviluppare quello che viene definito “trattamento termico dei tumori”, che consiste nell’applicazione di elevate o basse temperature nella posizione desirata per creare necrosi e quindi l’eliminazione della neoplasia. L’obiettivo di questo lavoro è presentare i diversi trattamenti termici utilizzati nella pratica clinica, i modelli matematici utilizzati dalla tecnologia attuale per predire la distribuzione di temperatura nel tessuto e quindi l’efficacia di una determinata tecnologia; infine verranno presentate le ricerche che si pensa potrebbero migliorare l’efficienza della terapia. Per ogni tecnica sono state presentate le dinamiche di utilizzo, i macchinari, i limiti e i vantaggi che la caratterizzano. Ci si è soffermati anche sulla presentazione dell’equazioni matematiche che regolano gli scambi di calore, nonché sui danni provocati ai tessuti da fattori ipertermici o ipotermici, con un particolare esempio sui fattori ipertermici generati da campi elettromagnetici vicini e lontani. Si è cercato, quindi, di fare un quadro generale di questo trattamento toccando i diversi aspetti che lo distinguono dalle altre terapie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le normative antinquinamento sempre più stringenti in termini di emissioni prodotte da un MCI hanno reso necessario lo studio e lo sviluppo di modelli predittivi in grado quindi di simulare tutto ciò che avviene all’interno della camera di combustione; allo scopo di ottimizzare quello che è un prodotto industriale e che pertanto va venduto. Il presente elaborato di tesi si è quindi incentrato sull’impatto che uno spray di combustibile, iniettato ad alta pressione, ha su pareti calde e fredde, analizzando tutto ciò che concerne l’eventuale sviluppo di wall-film prodotto come la relativa massa, area, spessore e raffreddamento della parete per via della propria interazione con il film a parete. Sono stati prima di tutto studiati i fenomeni fisici in atto e successivamente analizzati i modelli implementati nel codice di calcolo commerciale utilizzato STAR-CD, in particolare il modello di boiling, il modulo 1D-CHT ed il modello di impatto Bai-ONERA; il tutto facendo riferimento a esperimenti, già condotti, presenti in letteratura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi abbiamo presentato/analizzato metodi variazionali allo stato dell’arte per la ricostruzione – ovvero, rimozione di sfocamento e rumore - di una classe specifica di segnali/immagini caratterizzati dal fatto di essere costanti a tratti e bilivello. Tali metodi ottengono la ricostruzione tramite la minimizzazione di un funzionale formato da due parti: un termine di fedeltà ai dati, la cui forma dipende dal tipo di rumore considerato, e un termine di regolarizzazione che codifica l’informazione a priori disponibile sul segnale da ricostruire (ad esempio, la sua regolarità). Per segnali costanti a tratti, è ben noto che il regolarizzatore deve avere la proprietà di promuovere la sparsità delle derivate prime del segnale. In particolare, molte proposte allo stato dell’arte sfruttano la pseudo-norma l0 o la norma l1 del gradiente, ossia la Variazione Totale (TV). La prima scelta è ottimale in linea teorica poiché promuove al meglio la sparsità, ma il funzionale è fortemente non convesso e i metodi numerici di minimizzazione possono convergere a soluzioni locali. Nel caso di TV si ha invece un problema convesso che garantisce la convergenza a minimi globali ma la qualità della soluzione è sub-ottima. Motivati da vantaggi/svantaggi di l0 ed l1, in questa tesi si è deciso di investigare (teoricamente e sperimentalmente) l’uso di modelli variazionali di tipo Convesso-NonConvesso (CNC). Questi utilizzano particolari regolarizzatori non convessi e parametrici che consentono da un lato di sparsificare meglio di l1, dall’altro di mantenere la convessità del funzionale così da presentare un unico punto di minimo. Tra i metodi CNC investigati, quello denominato GME-TV basato sul concetto di inviluppo di Moreau generalizzato ha prodotto ricostruzioni di qualità sempre migliore di TV e a volte, diremmo sorprendentemente, anche di l0. Questo rappresenta un risultato di particolare rilevanza scientifica nel campo della ricostruzione di segnali/immagini.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il seguente lavoro è uno studio di iniezione (strategia, timing, spray pattern) svolto con la simulazione numerica, alle quali oggi si richiede dettaglio e accuratezza. Il lavoro si concentra sullo studio di spray multi componente, tramite la scrittura di una UDF (user define function) proprietaria, valutazione sensibilità dell'impatto a parete, film boiling a parametri modellistici influenzati dal multicomponente e scrittura di un codice per l'elaborazione delle immagini sia sperimentali che numeriche per rendere più esteso il confronto tra CFD e sperimentale, per migliorare le tarature e i modelli e comprendere meglio la fenomenologia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trattamento dati, modellazione e calibrazione di un motore da competizione

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo studio di modelli teorici e matematici della memoria semantica ricopre un ruolo importante nelle neuroscienze cognitive. I modelli neuro-computazionali sviluppati negli ultimi decenni vengono impiegati per spiegare e simulare come le informazioni recepite dall’esterno vengono memorizzate e successivamente utilizzate. In questo elaborato si sviluppa un modello di rete semantica per il riconoscimento di concetti, definiti come insieme di caratteristiche. Fondamentale è il ruolo assunto dalle diverse proprietà, che sono state suddivise fra salienti e marginali, distintive e condivise. I concetti presi in considerazione con le rispettive feature, fanno parte di un ampio data set fornito dalla Dott.ssa Catricalà. La rete sviluppata rientra tra i modelli di massa neuronale che considera quattro popolazioni di neuroni: piramidali, inter-neuroni eccitatori, inter-neuroni inibitori lenti e inter-neuroni inibitori veloci. Il modello sviluppato si basa sullo studio del professor Ursino et al. e utilizza oscillatori in banda gamma. Tramite sincronizzazione di queste oscillazioni è possibile memorizzare concetti e successivamente recuperarli, mantenendoli in memoria simultaneamente. Il richiamo di più concetti contemporaneamente avviene tramite desincronizzazione delle oscillazioni ad opera di un inibitore globale, modellato tramite funzione a gradino. Per modellare l’apprendimento della rete è stata utilizzata la regola di Hebb, sfruttando soglie pre e post-sinaptiche differenti così da costruire sinapsi asimmetriche che permettono una differenziazione delle feature.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il termine go-tv fa riferimento a i sistemi di videocomunicazione collocati a bordo di mezzi di trasporto e in ambienti collegati, ad alto transito di passeggeri. Limitando l’analisi al territorio italiano, la ricerca intende ricostruire le coordinate storiche del suo sviluppo, inquadrandolo entro il più ampio contesto dei media contemporanei. Da un punto di vista teorico, sono considerati sia il legame del mezzo con l’ambiente urbano, sia le interconnessioni tra comunicazione, mobilità e trasporti, riflesse nel particolare statuto sociale e topologico chiamato in causa dai suoi luoghi di consumo. Dall’approvvigionamento alla messa in onda dei contenuti, cardine speculativo del lavoro è la disamina, su base esplorativa, delle consuetudini commerciali e professionali sottese a questo speciale canale di distribuzione audiovisiva, nel quadro di apposite pratiche d’azienda, campionate nel solco degli studi sulla produzione mediale. Tre sono gli snodi principali del progetto: la proposta di una definizione univoca del fenomeno, condivisibile dai diversi attori coinvolti nella filiera, una prima modellizzazione del suo profilo mediale e una mappatura dei principali casi di go-tv rinvenibili a livello nazionale, arricchita da una serie di studi di caso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'inibizione del complesso respiratorio I (CI) è una strategia antitumorale emergente, sebbene la specificità e l’efficacia di nuovi farmaci restino poco investigate. La generazione di modelli cellulari tumorali nulli per il CI rivela la specificità di EVP 4593 e BAY 872243 nell’indurre gli effetti antiproliferativi non associati all’apoptosi, selettivamente via CI, riducendo eventuali effetti collaterali. Studi preliminari in vivo evidenziano un rallentamento della crescita tumorale negli animali trattati con EVP 4593, il quale emerge come l’inibitore più potente. Per il suo ruolo nella riprogrammazione metabolica, e la sua elevata frequenza di mutazioni nelle neoplasie umane, sono stati investigati i potenziali meccanismi di adattamento alla terapia anti-CI sulla base dello stato mutazionale di TP53. L’auxotrofia da aspartato, un hallmark metabolico delle cellule tumorali con un danno al CI, causa un blocco della sintesi proteica mTORC1-dipendente nelle linee cellulari con una p53 mutata o nulla, inducendo un collasso metabolico. Viceversa, l'attivazione del sensore energetico AMPK promuove un recupero parziale della sintesi di aspartato in linee cellulari con la forma wild type di P53, che è in grado di sostenere una migliore anaplerosi attraverso SCO2, fattore di assemblaggio del complesso respiratorio IV. Al fine di traslare questi risultati in un modello preclinico, si è ottimizzato l’ottenimento di colture di tumori umani espiantati tramite il bioreattore U-CUP. Il modello scelto è stato quello di carcinoma sieroso ad alto grado dell’ovaio (HGSOC), a partire da tessuto congelato, per l’elevata frequenza di mutazioni driver in TP53. I tessuti congelati preservano l'eterogeneità delle componenti cellulari del tessuto di origine e sono caratterizzati da cellule in attiva proliferazione senza attivazione di apoptosi. Dati preliminari mostrano un trend di riduzione dell’area tumorale nei tessuti trattati con EVP 4593 e supportano l’utilizzo del modello preclinico nello studio di nuovi inibitori del CI sfruttando materiale primario di pazienti oncologici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il patrimonio residenziale italiano ammonta a 12,2 milioni di edifici, di cui il 57,5% ha più di 50 anni ed è stato costruito in assenza di normative specifiche, in termini di sicurezza sismica, resistenza al fuoco, efficienza energetica e accessibilità, e manifesta un’avanzata obsolescenza. Agire su questo patrimonio significa operare tramite le due macro categorie di intervento: demolizione/ricostruzione o riqualificazione energetica. Questa ricerca dottorale vuole indagare la demolizione/ricostruzione di comparti urbani periferici, costruiti tra 1945-1965, quale strategia di rigenerazione urbana, integrandola in un modello edilizio basato sui criteri dell’economia circolare. Vengono definite le caratteristiche costruttive e i principi di questo modello di progettazione ecosistemica, denominato Integrho, che coniuga i criteri di ecodesign nel ciclo di vita (Building in Layers, Design for Disassembly e il Design out Waste) con quelli di bioclimaticità e di adattabilità funzionale. Il lavoro è stato improntato secondo due livelli gerarchici, scala urbana e scala edilizia, tra loro correlate mediante quella intermedia dell’isolato, al fine di ottenere un obiettivo di natura metodologica: definire uno strumento di supporto decisionale, capace di indirizzare tra le categorie di intervento attraverso parametri oggettivi, valutati con analisi comparative speditive. Tale metodologia viene applicata al contesto di Bologna, e si fonda sulla creazione di un’approfondita base conoscitiva attraverso la catalogazione delle 8.209 pratiche edilizie di nuova costruzione presentate tra 1945 e il 1965. Tale strumento georeferenziato, contenente informazioni tipologiche, costruttive ecc., è impiegato per valutare in modo quantitativo e speditivo i consumi energetici, i materiali incorporati, gli impatti ambientali e i costi economici dei differenti scenari di intervento nel ciclo di vita. Infine, l’applicazione del modello edilizio Integrho e del paradigma Ri-Costruire per Ri-Generare ad uno degli isolati periferici selezionati, è impiegata come esemplificazione dell’intero processo, dalla fase conoscitiva a quella strumentale, al fine di verificarne l’attendibilità e l’applicabilità su larga scala.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La ricerca si pone l’obiettivo di comprendere in che modo sia strutturato lo stardom italiano della Generazione Z e quale ruolo svolgano i media nei processi di celebrification delle figure attoriali in esame, nonché l'impatto che queste hanno sulla società stessa. Si intende fornire una maggiore comprensione dei meccanismi alla base del funzionamento dello star system in un contesto storico, culturale e generazionale specifico. Inoltre, il confronto tra il panorama italiano e il landscape internazionale contribuisce a una maggiore comprensione dell’evoluzione e della trasformazione del concetto di celebrità nel contesto globale, oltre che delle modalità attraverso le quali la dimensione italiana si inserisce in questa evoluzione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi analizza il modello Input-Output, introdotto da Leontief nel 1936, per studiare la reazione dei sistemi industriali di Germania, Spagna ed Italia alle restrizioni imposte dai governi per limitare la diffusione della pandemia da COVID-19. Si studiano le economie considerando gli scambi tra i settori produttivi intermedi e la domanda finale. La formulazione originale del modello necessita diverse modifiche per descrivere realisticamente le reti di produzione e comunque non è del tutto esaustiva in quanto si ipotizza che la produttività dei sistemi sia sempre tale da soddisfare pienamente la domanda che giunge per il prodotto emesso. Perciò si introduce una distinzione tra le variabili del problema, assumendo che alcune componenti di produzione siano indipendenti dalla richiesta e che altre componenti siano endogene. Le soluzioni di questo sistema tuttavia non sempre risultano appartenenti al dominio di definizione delle variabili. Dunque utilizzando tecniche di programmazione lineare, si osservano i livelli massimi di produzione e domanda corrisposta in un periodo di crisi anche quando i sistemi non raggiungono questa soglia poiché non pienamente operativi. Si propongono diversi schemi di razionamento per distribuire tra i richiedenti i prodotti emessi: 1) programma proporzionale in base alle domande di tutti i richiedenti; 2) programma proporzionale in base alle richieste, con precedenza ai settori intermedi; 3) programma prioritario in cui vengono riforniti i settori intermedi in base alla dimensione dell’ordine; 4) programma prioritario con fornitura totale degli ordini e ordine di consegna casuale. I risultati ottenuti dipendono dal modello di fornitura scelto, dalla dimensione dello shock cui i settori sono soggetti e dalle proprietà della rete industriale, descritta come grafo pesato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La malattia COVID-19 associata alla sindrome respiratoria acuta grave da coronavirus 2 (SARS-CoV-2) ha rappresentato una grave minaccia per la salute pubblica e l’economia globale sin dalla sua scoperta in Cina, nel dicembre del 2019. Gli studiosi hanno effettuato numerosi studi ed in particolar modo l’applicazione di modelli epidemiologici costruiti a partire dai dati raccolti, ha permesso la previsione di diversi scenari sullo sviluppo della malattia, nel breve-medio termine. Gli obiettivi di questa tesi ruotano attorno a tre aspetti: i dati disponibili sulla malattia COVID-19, i modelli matematici compartimentali, con particolare riguardo al modello SEIJDHR che include le vaccinazioni, e l’utilizzo di reti neurali ”physics-informed” (PINNs), un nuovo approccio basato sul deep learning che mette insieme i primi due aspetti. I tre aspetti sono stati dapprima approfonditi singolarmente nei primi tre capitoli di questo lavoro e si sono poi applicate le PINNs al modello SEIJDHR. Infine, nel quarto capitolo vengono riportati frammenti rilevanti dei codici Python utilizzati e i risultati numerici ottenuti. In particolare vengono mostrati i grafici sulle previsioni nel breve-medio termine, ottenuti dando in input dati sul numero di positivi, ospedalizzati e deceduti giornalieri prima riguardanti la città di New York e poi l’Italia. Inoltre, nell’indagine della parte predittiva riguardante i dati italiani, si è individuato un punto critico legato alla funzione che modella la percentuale di ricoveri; sono stati quindi eseguiti numerosi esperimenti per il controllo di tali previsioni.