820 resultados para Nuove Attribuzioni
Resumo:
La tesi ripercorre i procedimenti utilizzati per il calcolo dell'asintotica dello splitting dell'operatore puramente magnetico di Schrödinger nel limite semiclassico (con campo magnetico costante) in un dominio aperto limitato e semplicemente connesso il cui bordo ha simmetria assiale ed esattamente due punti di curvatura massima non degeneri. Il punto di partenza è trovare stime a priori sulle sue autofunzioni, che permettono di dire che sono localizzate esponenzialmente vicino al bordo del dominio in oggetto, grazie a queste stime di riesce a modificare l'operatore in maniera tale che l'asintotica dello splitting rimanga equivalente. Si passa in seguito a coordinate tubulari, quindi si rettifica il borso del dominio, andando però a complicare il potenziale magnetico. Si ottengono nuove stime a priori per le autofunzioni. A questo punto si considera lo stesso operatore differenziale ma su un dominio modificato, in cui viene eliminato uno dei punti di curvatura massima. Per tale operatore si ha uno sviluppo asintotico delle autofunzioni (anche dette soluzioni WKB). Si utilizzano poi strumenti di calcolo pseudo-differenziale per studiare l'operatore nel nuovo dominio, ne si localizza la fase per renderlo limitato ed ottenere così una parametrice (anch'essa limitata) avente un simbolo esplicito. Se ne deducono stime di tipo ellittico che possono essere portate all'operatore senza la fase localizzata aggiungendo dei termini di errore. Grazie queste stime si riesce ad approssimare lo splitting (controllando sempre l'errore) che volevamo calcolare (quello dell'operatore sul dominio con due punti di curvatura massima) tramite le autofunzioni dell'operatore sul dominio con un solo punto di curvatura massima, e per queste autofunzioni abbiamo lo sviluppo asintotico (WKB). Considerando l'ordine principale di questi sviluppi si riesce a calcolare esplicitamente il termine dominante dello splitting, ottenendone così l'asintotica nel limite semiclassico.
Resumo:
(ITA) L’industria mondiale odierna nel campo dell’architettura e dell’ingegneria si esprime quasi esclusivamente mediante l’approccio BIM, Building Information Modeling. Anche se sviluppato pensando alle nuove costruzioni ed ancora in via di perfezionamento, è entrato prepotentemente nei capitoli normativi di molti stati all’urlo dell“interoperability”. Su questo tema è recente l’interesse e la possibilità di adozione per l’intervento sul costruito, ovvero di Existing Building Information Modelling, eBIM. Gli studi applicativi-sperimentali in questo ambito sono sempre più numerosi e convergono, purtroppo, sulla delicata correlazione tra la gestione del contenuto semantico e la perdita di interoperabilità. Questa tesi si incentra sull’analisi di tale correlazione valutando in particolare l’aspetto metodologico-applicativo dell’arricchimento semantico adottando come caso studio la Torre Nord della Rocca Estense di San Felice sul Panaro. (ENG)Today's global industry in architecture and engineering fields, expresses itself almost entirely focusing on BIM, Building Information Modeling. Even though it was developed taking in consideration new buildings and the ones that are in the process of improvement, it has entered the regulatory chapters of many states in the hymn of "interoperability". Concerning this topic is recent the interest and possibility of adopting a process to intervene on the already built constructions, Existing Building Information Modeling, eBIM. Application-experimental studies in this area are increasingly numerous and unfortunately converge, on the delicate correlation between the management of the semantic content and the loss of interoperability. This thesis focuses on the analysis of this correlation by evaluating in particular the methodological-applicative aspect of semantic enrichment by adopting the North Tower of the Rocca Estense in San Felice sul Panaro as a case study.
Resumo:
In questa tesi si propone una metodologia per il trasferimento interattivo semiautomatico di dati da modelli geometrici semantici sviluppati in ambiente BIM a modelli strutturali supportati da analisi per elementi finiti. Il caso della Rocca estense di San Felice sul Panaro, gravemente danneggiata dagli eventi sismici del 2012, è utilizzato come caso di studio applicativo. La metodologia prevede in prima battuta la modellazione di elementi speciali BIM quali contenitori locali dei dati semantici definiti mediante regioni nello spazio del modello che individuano particolari condizioni fisiche individuate mediante la definizione di opportuni metadati. Successivamente, tali informazioni vengono processate automaticamente, mediante uno script integrato in ambiente BIM, rendendole compatibili con i set di dati che tipicamente vengono trasmessi in input per analisi ad elementi finiti. Tali operazioni permettono quindi la generazione di un modello strutturale che recepisce direttamente le attribuzioni semantiche del modello geometrico iniziale. Nell'elaborato sono inoltre discusse alcune metodologie alternative per la generazione del modello agli elementi finiti, partendo da diverse definizioni geometriche in ambiente BIM.
Resumo:
L'utilizzo di diete a base di microalghe per l'allevamento di novellame di molluschi bivalvi sta ottenendo sempre maggiore interesse data la crescente domanda di mercato nel settore dell'acquacoltura. Le dimensioni cellulari, la composizione biochimica e la digeribilità della parete cellulare delle microalghe sono fattori fondamentali per la loro applicabilità nell'alimentazione dei bivalvi; anche il contenuto di acidi grassi essenziali quali EPA e DHA ha un ruolo rilevante poiché influenza il tasso di crescita e di sviluppo degli animali. Nel presente studio sono stati utilizzati due ceppi autoctoni della Sacca di Goro del genere Thalassiosira, Pheaodactylum tricornutum, l'alga verde Tetraselmis chui e l'aptofita T-Iso, quest’ultima ampiamente utilizzata nell'alimentazione di diverse specie di molluschi bivalvi. Gli esperimenti condotti hanno permesso di (1) caratterizzare la crescita e la composizione biochimica delle 5 specie microalgali e (2) di analizzare l'applicabilità delle stesse tramite prove di alimentazione su larve e novellame di Ruditapes philippinarum, al fine di ottimizzarne la produzione. I risultati migliori, per numero di sopravvissuti e taglia raggiunta, sono stati ottenuti con larve alimentate con dieta plurispecifica a base di T-Iso e Thalassiosira ceppo A in rapporto 2:1; Thalassiosira ceppo A e P. tricornutum, in diete monospecifiche, sono state identificate come le più appetibili e assimilabili dal novellame, il quale mostra buoni valori del tasso massimo di clearance (2,17±0,25 e 2,27±0,15 L h-1, rispettivamente) e di efficienza di assorbimento del cibo (67 e 46%). Si è trattato di uno studio preliminare volto a verificare eventuali miglioramenti legati all’utilizzo di diete diversificate rispetto a quelle standardizzate di solito impiego; la ricerca di nuove specie algali e ulteriori analisi sulle attuali specie disponibili e sulla loro applicabilità potranno essere utili alla crescita sostenibile del settore dell’acquacoltura.
Resumo:
Il periodo in cui viviamo rappresenta la cuspide di una forte e rapida evoluzione nella comprensione del linguaggio naturale, raggiuntasi prevalentemente grazie allo sviluppo di modelli neurali. Nell'ambito dell'information extraction, tali progressi hanno recentemente consentito di riconoscere efficacemente relazioni semantiche complesse tra entità menzionate nel testo, quali proteine, sintomi e farmaci. Tale task -- reso possibile dalla modellazione ad eventi -- è fondamentale in biomedicina, dove la crescita esponenziale del numero di pubblicazioni scientifiche accresce ulteriormente il bisogno di sistemi per l'estrazione automatica delle interazioni racchiuse nei documenti testuali. La combinazione di AI simbolica e sub-simbolica può consentire l'introduzione di conoscenza strutturata nota all'interno di language model, rendendo quest'ultimi più robusti, fattuali e interpretabili. In tale contesto, la verbalizzazione di grafi è uno dei task su cui si riversano maggiori aspettative. Nonostante l'importanza di tali contributi (dallo sviluppo di chatbot alla formulazione di nuove ipotesi di ricerca), ad oggi, risultano assenti contributi capaci di verbalizzare gli eventi biomedici espressi in letteratura, apprendendo il legame tra le interazioni espresse in forma a grafo e la loro controparte testuale. La tesi propone il primo dataset altamente comprensivo su coppie evento-testo, includendo diverse sotto-aree biomediche, quali malattie infettive, ricerca oncologica e biologia molecolare. Il dataset introdotto viene usato come base per l'addestramento di modelli generativi allo stato dell'arte sul task di verbalizzazione, adottando un approccio text-to-text e illustrando una tecnica formale per la codifica di grafi evento mediante testo aumentato. Infine, si dimostra la validità degli eventi per il miglioramento delle capacità di comprensione dei modelli neurali su altri task NLP, focalizzandosi su single-document summarization e multi-task learning.
Resumo:
Dopo lo sviluppo dei primi casi di Covid-19 in Cina nell’autunno del 2019, ad inizio 2020 l’intero pianeta è precipitato in una pandemia globale che ha stravolto le nostre vite con conseguenze che non si vivevano dall’influenza spagnola. La grandissima quantità di paper scientifici in continua pubblicazione sul coronavirus e virus ad esso affini ha portato alla creazione di un unico dataset dinamico chiamato CORD19 e distribuito gratuitamente. Poter reperire informazioni utili in questa mole di dati ha ulteriormente acceso i riflettori sugli information retrieval systems, capaci di recuperare in maniera rapida ed efficace informazioni preziose rispetto a una domanda dell'utente detta query. Di particolare rilievo è stata la TREC-COVID Challenge, competizione per lo sviluppo di un sistema di IR addestrato e testato sul dataset CORD19. Il problema principale è dato dal fatto che la grande mole di documenti è totalmente non etichettata e risulta dunque impossibile addestrare modelli di reti neurali direttamente su di essi. Per aggirare il problema abbiamo messo a punto nuove soluzioni self-supervised, a cui abbiamo applicato lo stato dell'arte del deep metric learning e dell'NLP. Il deep metric learning, che sta avendo un enorme successo soprattuto nella computer vision, addestra il modello ad "avvicinare" tra loro immagini simili e "allontanare" immagini differenti. Dato che sia le immagini che il testo vengono rappresentati attraverso vettori di numeri reali (embeddings) si possano utilizzare le stesse tecniche per "avvicinare" tra loro elementi testuali pertinenti (e.g. una query e un paragrafo) e "allontanare" elementi non pertinenti. Abbiamo dunque addestrato un modello SciBERT con varie loss, che ad oggi rappresentano lo stato dell'arte del deep metric learning, in maniera completamente self-supervised direttamente e unicamente sul dataset CORD19, valutandolo poi sul set formale TREC-COVID attraverso un sistema di IR e ottenendo risultati interessanti.
Resumo:
A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Gli attuali metodi di analisi agli elementi finiti (FEM) e le tecnologie CAE (Computer-Aided Engineering) non sono in grado di studiare modelli 3D di componenti stampati, dal momento che il risultato finale dipende dai parametri di processo e ambientali. Per questo motivo, è necessario uno studio approfondito della meso struttura del componente stampato per estendere l’analisi FEM anche a questa tipologia di componenti. Lo scopo del lavoro proposto è di creare un elemento omogeneo che rappresenti accuratamente il comportamento di un componente realizzato in stampa 3D FDM, questo avviene attraverso la definizione e l’analisi di un volume rappresentativo (RVE). Attraverso la tecnica dell’omogeneizzazione, il volume definito riassume le principali caratteristiche meccaniche della struttura stampata, permettendo nuove analisi e ottimizzazioni. Questo approccio permette di realizzare delle analisi FEM sui componenti da stampare e di predire le proprietà meccaniche dei componenti a partire da determinati parametri di stampa, permettendo così alla tecnologia FDM di diventare sempre di più uno dei principali processi industriali a basso costo.
Resumo:
Questa tesi di laurea si pone l’obiettivo di investigare alcune delle nuove frontiere offerte dalla crescita sincretica e multidisciplinare dei linguaggi digitali applicati all’architettura e ai beni culturali. Si approfondiranno i concetti teorici fondamentali dell’informazione digitale: il web semantico come ambiente di scambio, i metadata come informazioni sui dati, i LOD (Link Open Data) come standard e fine. Per l’ambito dei beni culturali verranno presentati i temi di ricerca e sviluppo nel campo della catalogazione e fruizione digitali: ontologie, dizionari normalizzati aperti, database (Catalogo Digitale), etc. Per l’ambito edilizio-architettonico verrà introdotto l’Heritage Building Information Modeling (HBIM) semantico come metodologia multidisciplinare focalizzata su rilievo geometrico, modellazione, archiviazione e scambio di tutte le informazioni utili alla conoscenza e conservazione dei beni storici. Il punto d’incontro tra i due mondi è individuato nella possibilità di arricchire le geometrie attraverso la definizione di una semantica (parametri-metadati) relazionata alle informazioni (valori-dati) presenti nei cataloghi digitali, creando di fatto un modello 3D per architetture storiche con funzione di database multidisciplinare. Sarà presentata la piattaforma web-based Inception, sviluppata dall’omonima startup incubata come spinoff dall’Università di Ferrara, che, tra le diverse applicazioni e potenzialità, verrà utilizzata come strumento per la condivisione e fruizione, garantendo la possibilità di interrogare geometrie e metadati in continuità con i principi LOD. Verrà definito un workflow generale (procedure Scan2BIM, modellazione geometrica, definizione script per l’estrazione automatica dei dati dal Catalogo Digitale, associazione dati-geometrie e caricamento in piattaforma) successivamente applicato e adattato alle precise necessità del caso studio: la Chiesa di S. Maria delle Vergini (MC), su commissione dell’ICCD referente al MiBACT.
Resumo:
Vista la crescente necessità di svolgere progetti d'innovazione guidati dalle nuove tecnologie, la presente ricerca risponde all'esigenza di trovare una metodologia efficace per poterli affrontare proficuamente. In un primo momento, l'elaborato propone una metodologia che permette di elaborare una classificazione dei progetti d'innovazione technology-driven in classi ed un pacchetto di tools funzionali al riconoscimento dell'appartenenza alle stesse. In un secondo momento, giunti a comprensione del fatto che ad ognuna delle classi corrisponde uno specifico fine raggiungibile con una specifica metodologia, lo studio descrive la metodologia seguita per raggiungere una efficace e ripetibile elaborazione di principi progettuali, buone pratiche e strumenti che permettano ad una Organizzazione di appropriarsi del valore di una tecnologia General Purpose (GPT) attraverso l'ideazione di soluzioni innovativa. La progettazione è figlia di un approccio di Design Thinking (DT), sia poichè esso è stato usato nello svolgimento stesso della ricerca, sia perchè la metodologia DT è alla base della modellazione del processo proposto per la classe.
Resumo:
L'osteoartrite (OA) è una patologia infiammatorio/degenerativa ossea per la quale non sono disponibili terapie causali efficaci ma solo approcci palliativi per la riduzione del dolore cronico. E’ quindi giustificato un investimento per individuare nuove strategie di trattamento. In quest’ottica, lo scopo di questa tesi è stato quello di indagare l’efficacia di polyplexi a base di chitosano o di PEI-g-PEG in un modello cellulare 3D in vitro basato su un hydrogel di Gellan Gum Metacrilato (GGMA) con a bordo condrociti in condizioni simulate di OA. Inizialmente sono state studiate la dimensione e il potenziale-Z di un pool di formulazioni di poliplexi. Quindi se ne è valutata la citocompatibilità utilizzando cellule staminali mesenchimali immortalizzate Y201. Infine, una miscela di GGMA, cellule e polyplexi è stata utilizzata per la stampa 3D di campioni che sono stati coltivati fino a 14 giorni. La condizione OA è stata simulata trattando le cellule con una miscela di citochine implicate nello sviluppo della malattia. Tutte le formulazioni a base di chitosano e due basate su PEI-g-PEG si sono dimostrate citocompatibili e sono hanno veicolato i miRNA nelle cellule (come mostrato dai risultati di analisi in fluorescenza). I risultati delle colorazioni H&E e AlcianBlue hanno confermato che il terreno condizionato ha ben ricreato le condizioni di OA. I polyplexi a base di chitosano e PEI-g-PEG hanno controbilanciato gli effetti delle citochine. Risultati incoraggianti, anche se da approfondire ulteriormente, provengono anche dall’analisi di espressione (RT-PCR) di cinque geni specifici della cartilagine. Concludendo, questo modello ha ben riprodotto le condizioni di OA in vitro; il chitosano ha mostrato di essere un adeguato veicolo per un trattamento a base di miRNA; il PEI-g-PEG si propone come un'alternativa più economica e ragionevolmente affidabile, sebbene il rischio di citotossicità alle concentrazioni più elevate richieda una più esteva validazione sperimentale.
Resumo:
Gli interventi in campo neurologico richiedono un’elevata accuratezza e si basano generalmente su sistemi invasivi. Lo scopo della seguente trattazione è quello di presentare e validare sistemi innovativi per interventi di chirurgia stereotassica caratterizzati da una bassa invasività e una elevata accuratezza. Lo studio, partito dall’analisi dello stato dell’arte, pone la sua attenzione su nuove proposte e le ottimizza, ne ricava dei protocolli attuabili e li valida sperimentalmente. Due sono i punti salienti dell’elaborato: descrivere la procedura innovativa di intervento e i risultati in termini di affidabilità dello stesso. Gli elementi di novità si concentrano sull’ideazione e la realizzazione del sistema di fissaggio al cranio del paziente, elemento fondamentale per un accurato inserimento dell’utensile chirurgico, e sul metodo di verifica dell’accuratezza del sistema proposto. La qualità di tale sistema viene infine decretata dai risultati dei test sperimentali.
Resumo:
La ricerca ha ad oggetto lo studio dell’evoluzione del ruolo del Presidente del Consiglio dei ministri all’interno delle dinamiche di funzionamento della forma di governo italiana. Difatti, la ricostruzione sistematica di tale figura sembra essere rimasta sempre in secondo piano rispetto alle complesse analisi riguardanti la forma di governo parlamentare. Dal totale silenzio dello Statuto albertino sul punto, agli svariati tentativi non sempre riusciti nel periodo statutario di disciplinare le competenze presidenziali con atti normativi, alle “fumose” parole dell’articolo 95 della Costituzione, che hanno lasciato coesistere interpretazioni divergenti sulla collocazione del Presidente del Consiglio all’interno della compagine governativa, sino alla tardiva attuazione del disposto costituzionale con la legge n. 400/88, con grande difficoltà tale figura è riuscita ad avere un riconoscimento espresso e stabile delle proprie attribuzioni costituzionali. Il lavoro di ricerca, pertanto, si propone di ricostruire il “ruolo” costituzionale di tale figura soprattutto alla luce delle recenti evoluzioni che hanno caratterizzato la forma di governo nazionale. Ponendo al centro l’analisi di tali fenomeni, il lavoro si sviluppa seguendo tre direttrici evidenziate dalla tre parti in cui esso si divide: un’analisi storico-evolutiva; un’analisi orizzontale e “di sistema” dell’impianto organizzativo dell’esecutivo e del suo vertice e un’analisi concreta di due “casi di studio”. La finalità della ricerca è quella di proporre una lettura del ruolo costituzionale del Presidente del Consiglio in una chiave più estesa: non limitato esclusivamente al coordinamento e alla direzione dell’attività endogovernativa, declinata principalmente nel campo normativo, ma che ricomprende anche il coordinamento delle politiche pubbliche di governo e funzionale allo svolgimento di un coordinamento “inter-istituzionale” e “di sistema”, che coinvolge le diverse strutture governative, il Parlamento e i diversi livelli di governo, anche sovranazionale.
Resumo:
In these last years a great effort has been put in the development of new techniques for automatic object classification, also due to the consequences in many applications such as medical imaging or driverless cars. To this end, several mathematical models have been developed from logistic regression to neural networks. A crucial aspect of these so called classification algorithms is the use of algebraic tools to represent and approximate the input data. In this thesis, we examine two different models for image classification based on a particular tensor decomposition named Tensor-Train (TT) decomposition. The use of tensor approaches preserves the multidimensional structure of the data and the neighboring relations among pixels. Furthermore the Tensor-Train, differently from other tensor decompositions, does not suffer from the curse of dimensionality making it an extremely powerful strategy when dealing with high-dimensional data. It also allows data compression when combined with truncation strategies that reduce memory requirements without spoiling classification performance. The first model we propose is based on a direct decomposition of the database by means of the TT decomposition to find basis vectors used to classify a new object. The second model is a tensor dictionary learning model, based on the TT decomposition where the terms of the decomposition are estimated using a proximal alternating linearized minimization algorithm with a spectral stepsize.
Resumo:
L’elaborato affronta il tema della massiccia diffusione di disinformazione tramite internet sotto il profilo del diritto costituzionale, nell’ottica di indagare se le dimensioni del fenomeno richiedano l’elaborazione di principi e soluzioni nuove ovvero se i paradigmi costituzionali enucleati dalla tradizione costituzionalistica con riferimento alla libertà d’espressione forniscano gli strumenti sufficienti per un intervento efficace. In tale ottica, il lavoro premette una ricostruzione del fenomeno della disinformazione nel tentativo di individuare il perimetro socio-cognitivo e tecnologico entro cui la medesima prolifera, descrivendo gli elementi che distinguono l’informazione diffusa dai nuovi media rispetto a quella veicolata dai media mainstream. Ciò premesso, lo studio passa a delineare lo “statuto costituzionale” del falso, indagando la rilevanza che la menzogna assume sotto il profilo costituzionale nel suo rapporto con la libertà di manifestazione del pensiero negli ordinamenti interno, europeo e statunitense. L’analisi prosegue poi con l’esame delle politiche di contrasto alla disinformazione introdotte da singoli Stati (prevalentemente Germania, Francia e Italia), Unione europea, e piattaforme, con l’obiettivo di mettere in luce vantaggi e limiti dei modelli di eteroregolamentazione, coregolamentazione e autoregolamentazione. Da ultimo, l’elaborato scompone alcune delle azioni e misure passate in rassegna e le analizza con la lente d’ingrandimento della libertà di manifestazione del pensiero, ordinandone i contenuti secondo la specifica propensione a comprimere la libertà d’espressione. L’indagine si conclude con alcuni brevi spunti conclusivi che evidenziano l’esigenza, in base ai principi costituzionali analizzati, che eventuali interventi normativi siano se del caso volti alla regolazione delle piattaforme, ovvero dei “contenitori”, lasciano i contenuti al libero scambio delle idee.
Resumo:
Già ad uno sguardo esterno la normativa chiamata a disciplinare la condizione giuridica delle chiese cattoliche nel nostro Paese appare caratterizzata da un elevato grado di complessità: impressione che trova conferma sia con riferimento al diritto canonico, nella cui prospettiva le disposizioni appositamente dedicate ai 'loca sacra' dal Codex Iuris Canonici richiedono di essere affiancate dalle indicazioni provenienti – ai rispettivi, differenti livelli – tanto dalla Conferenza Episcopale Italiana quanto dai dicasteri della Curia romana; sia nell'ottica dell'ordinamento italiano, che agli 'edifici destinati all’esercizio pubblico del culto cattolico' riserva un'attenzione specifica, emergente nella legislazione unilaterale così come in quella pattizia. A fronte di una simile eterogeneità, sono d’altra parte note le problematiche che il tempo presente pone innanzi alle esigenze di una corretta amministrazione del patrimonio ecclesiastico – spesso pure dotato di un inestimabile valore storico-artistico –, le quali si riversano sulla preservazione stessa di tali immobili. Prendendo le mosse da questi presupposti, la trattazione si propone di effettuare una lettura sistematica delle diverse fasi in cui si articola il 'ciclo vitale' di un'ipotetica chiesa cattolica, così da ricostruire organicamente e criticamente quel quadro complessivo che permetta di formulare le soluzioni più appropriate per rispondere a questioni risalenti e sfide inedite. È quindi con questo intento che, una volta definito esattamente il concetto di chiesa-edificio, vengono ripercorsi i momenti in cui si sviluppa, anche giuridicamente, la sua esistenza: dalla pianificazione al finanziamento delle nuove costruzioni, con una speciale attenzione all'apporto che può essere offerto da parte della CEI; dagli utilizzi ammessi nel diritto canonico alle tutele garantite da parte statale; dalle misure di salvaguardia ai criteri per la loro adeguata gestione, comprendenti tanto i profili relativi alla conservazione quanto quelli riguardanti la valorizzazione; dalle implicazioni di un'eventuale riduzione a uso profano fino ai requisiti dettati per la nuova destinazione dell'immobile.