752 resultados para Funzione zeta di Hasse-Weil Varietà su campi finiti
Resumo:
Il lavoro proposto si pone l’obiettivo di progettare l’impianto di climatizzazione del Museo Nazionale della Resistenza, sito in Milano, sulla base dei criteri di riduzione delle emissioni climalteranti e valorizzando l’utilizzo delle fonti energetiche rinnovabili presenti nel territorio, nella fattispecie attraverso lo sfruttamento dell’acqua di falda e dell’energia solare. Il primo capitolo è dedicato alla descrizione del processo di dimensionamento effettuato ed ai criteri di progettazione adottati. Lo sfruttamento diretto dell’energia solare avviene attraverso un impianto fotovoltaico integrato alla struttura museale; nel secondo capitolo viene stimata la sua capacità di produzione elettrica annuale. Vengono quindi messi a confronto i risultati ottenuti, calcolati sia su base mensile in relazione alla norma UNI 10349, sia attraverso una simulazione energetica di tipo dinamico condotta su base oraria mediante l’utilizzo del software IES VE. Viene inoltre valutata la capacità della cella fotovoltaica nel convertire la radiazione incidente in energia elettrica ed analizzato il suo comportamento al variare delle condizioni operative. Nel terzo capitolo vengono studiati gli effetti dell’irraggiamento estivo sulle pareti opache del museo, valutando la capacità delle murature di ritardare l’onda di flusso termico. È inoltre effettuata una trattazione analitica per il calcolo dei parametri necessari a determinare il comportamento dinamico dell’involucro. Attraverso la simulazione dinamica è stato possibile stimare le richieste energetiche ed elettriche, estive e invernali, della struttura museale. La soluzione impiantistica proposta per la generazione di acqua calda e refrigerata, fa uso di gruppi polivalenti acqua-acqua con possibilità di condensare o evaporare con acqua di falda. Tale soluzione viene poi analizzata e confrontata con una più versatile, ma meno efficiente, una pompa di calore aria-acqua.
Resumo:
La giunzione miotendinea (MTJ) è una struttura anatomica specializzata che collega il muscolo al tendine. La sua funzione è quella di permettere la trasmissione della forza generata dal muscolo al tendine, permettendo il movimento. Essendo una struttura di interfaccia che funge da raccordo tra due tipi di tessuti molto differenti, tende a risentire di una forte concentrazione di tensione, questo la rende fortemente suscettibile a rottura. Le tecniche ad oggi utilizzare per riparare lesioni alla MTJ risultano inadatte ad una completa ed ottimale ripresa meccanica. Al fine di trovare una soluzione a questo problema, l’ingegneria tissutale sta lavorando alla fabbricazione di strutture tridimensionali che siano in grado di imitare al meglio la struttura nativa della MTJ. Le tecniche utilizzate per la produzione di tali strutture sono, principalmente, stampa 3D ed elettrofilatura. Il vantaggio di queste tecniche è la loro elevata risoluzione, che permette di controllare finemente l’architettura di tali strutture artificiali. Nella seguente tesi verrà presentato lo stato dell’arte sulle tecniche utilizzate per la fabbricazione di scaffolds per la rigenerazione della MTJ, soffermandosi in particolare sui metodi di fabbricazione e sulle prestazioni morfologiche, meccaniche e cellulari effettuando un confronto tra i diversi studi che se ne sono occupati, individuandone punti di forza, debolezze e possibili studi futuri che potranno essere effettuati su tali scaffolds. In questo modo, sarà possibile rendersi conto di quale di queste tecniche risulti essere più promettente per il futuro.
Resumo:
La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".
Resumo:
L’importanza sempre crescente dell’elettronica è accompagnata da una crescente necessità di compattezza ed efficienza energetica. Una parte sostanziale del costo e delle dimensioni dei moderni dispositivi elettronici è legata ai sistemi di conversione di potenza, il cui volume è dominato dai passivi. Per poter affrontare la miniaturizzazione dei circuiti elettronici di potenza sono dunque necessari metodi di design e tecnologie che permettano di ridurre i requisiti di immagazzinamento di energia. Un possibile approccio è aumentare la frequenza di commutazione nel range delle decine di MHz facendo in modo che l’efficienza non venga penalizzata dall’aumento delle perdite in commutazione. Ciò è reso possibile dall’impiego di topologie di convertitori risonanti che implementano la condizione ZVS. Oltre all’impiego di convertitori risonanti, l’aumento della frequenza operativa, mantenendo elevata l’efficienza, è abilitato dall’impiego di dispositivi a semiconduttore a largo band-gap come il nitruro di gallio (GaN), i quali mostrano performance superiori al silicio in termini di temperature operative, frequenze di funzionamento e densità di potenza. Inoltre, ad elevate frequenze di commutazione, l’utilizzo di magnetici coreless diventa una valida alterativa ai magnetici tradizionali, con vantaggi in termini di costo, ingombro e di efficienza. Il focus di questa tesi è il progetto di un convertitore DC-DC risonante con isolamento coreless ad alta efficienza e ad alta frequenza in tecnologia GaN a 650 V pensato per applicazioni wall-adapter. A seguito dello studio di alcune topologie di inverter risonanti e dei rispettivi rettificatori, si è scelta la topologia phi2 per il design del convertitore DC-DC double phi2 isolato (simulato con LTspice). È stato poi effettuato il design di un trasformatore coreless su PCB tramite simulatore elettromagnetico (ADS Keysight Momentum). Il convertitore complessivo presenta un’efficienza del 95,8% con una efficienza del link del 98%.
Resumo:
Il mondo della moda è in continua e costante evoluzione, non solo dal punto di vista sociale, ma anche da quello tecnologico. Nel corso del presente elaborato si è studiata la possibilità di riconoscere e segmentare abiti presenti in una immagine utilizzando reti neurali profonde e approcci moderni. Sono state, quindi, analizzate reti quali FasterRCNN, MaskRCNN, YOLOv5, FashionPedia e Match-RCNN. In seguito si è approfondito l’addestramento delle reti neurali profonde in scenari di alta parallelizzazione e su macchine dotate di molteplici GPU al fine di ridurre i tempi di addestramento. Inoltre si è sperimentata la possibilità di creare una rete per prevedere se un determinato abito possa avere successo in futuro analizzando semplicemente dati passati e una immagine del vestito in questione. Necessaria per tali compiti è stata, inoltre, una approfondita analisi dei dataset esistenti nel mondo della moda e dei metodi per utilizzarli per l’addestramento. Il presente elaborato è stato svolto nell’ambito del progetto FA.RE.TRA. per il quale l'Università di Bologna svolge un compito di consulenza per lo studio di fattibilità su reti neurali in grado di svolgere i compiti menzionati.
Resumo:
Il seguente elaborato, che riporta il lavoro di tesi svolto presso il Laboratorio di microsatelliti e microsistemi spaziali dell’Università di Bologna, parte dallo studio e dallo sviluppo di un modello relativo all’attuazione di ruote di reazione montate a bordo di un nanosatellite tramite l’utilizzo del software Matlab. Successivamente tali concetti sono stati utilizzati per lo sviluppo di una piattaforma testbed adibita alla valutazione del sottosistema di determinazione e controllo di assetto di un satellite, in questo caso delle dimensioni standard 1U. Si è partiti da un progetto di base già presente in laboratorio con la necessità però di aggiornarlo, introducendo miglioramenti su alcuni aspetti tecnici. Per fare ciò, si sono valutati i requisiti fondamentali di progetto, per poi valutare le molteplici soluzioni riguardanti tutti gli aspetti, dalle guide di scorrimento ai sistemi di fissaggio per il satellite, ognuna di esse considerando pro e contro attentamente analizzati al fine di giungere al miglior compromesso. Molte delle scelte progettuali sono scaturite a seguito di analisi quantitative al fine di garantire il corretto funzionamento della piattaforma ed ottenere, quindi, risultati quanto più affidabili a seguito dei test.
Resumo:
Negli ultimi anni i biosensori enzimatici sono diventati sempre più popolari nel campo delle determinazioni rapide di analiti di interesse industriale ed ambientale. L’utilizzo di tali biosensori consente di evitare, o comunque limitare, l’impiego di metodi analitici basati su tecniche più complesse e dispendiose in termini economici e temporali. Un grande obbiettivo della ricerca negli ultimi anni è quello di costruire biosensori reagentless, ossia dispositivi pronti all’uso da parte degli analisti, indipendentemente dalla loro esperienza. In questo lavoro di tesi sono stati sviluppati dei biosensori amperometrici reagentless che sfruttano l’enzima fosfatasi alcalina (ALP), come elemento di riconoscimento biologico, ed un elettrodo screen-printed (SPE) commerciale, come trasduttore. Per gli elettrodi SPE commerciali sono stati testati modificanti a base di nanomateriali carboniosi e del polimero conduttore PEDOT:ClO4. Sono inoltre stati messi a punto diversi biosensori costruiti utilizzando sia l’enzima ALP immobilizzato che lo stesso enzima in soluzione. I test sono stati eseguiti utilizzando il substrato enzimatico “ascorbil-fosfato di sodio (AAP)” ed alcuni inibitori enzimatici. I dispositivi reagentless sono stati fabbricati mediante stampa 3D e sono stati realizzati appositamente per gli elettrodi SPE commerciali utilizzati. Tali dispositivi sono stati utilizzati per effettuare la determinazione dell’AAP in campo cosmetico e la determinazione dell’enzima ALP in campo alimentare.
Resumo:
La tesi si suddivide in tre capitoli. Nel primo capitolo viene presentata una prima dimostrazione della disuguaglianza di Sobolev. La prova del Capitolo 1 si basa in modo essenziale sul fatto che R^ n è prodotto cartesiano di R per se stesso n volte. Nel Capitolo 2 si introducono i cosiddetti potenziali di Riesz Iα, con 0 < α < n che sono una tra le più importanti classi di operatori di convoluzione. Vediamo come sia possibile legare la teoria di questi operatori di tipo integrale frazionario a formule di rappresentazione . Il teorema principale di questo capitolo è il teorema di Hardy-Littlewood-Sobolev: si forniscono stime in norma L^p per tali operatori. La prova di tale teorema che qui abbiamo fornito segue l’idea di dimostrazione di Hedberg ed è basata sull’uso della disuguaglianza di Holder e sulle stime per la funzione massimale di Hardy-Littlewood. Le stime per il nucleo di Riesz I_1 sono state utilizzate nel Capitolo 3 per dimostrare le disuguaglianze di Sobolev e Poincaré nel caso p ∈]1, n[. Il caso p = 1 viene trattato a parte in quanto, nel caso p = 1, il teorema di Hardy-Littlewood- Sobolev fornisce solo una stima di tipo debole per il nucleo di Riesz I_1. Questo tipo di approccio, mediante le formule di rappresentazione, ha il vantaggio che può essere adattato a contesti geometrici diversi da quello Euclideo e a misure diverse della misura di Lebesgue. Infine, sempre nel Capitolo 3 abbiamo dato un breve cenno del collegamento che si ha tra la disuguaglianza di Sobolev nel caso p=1 e il problema isoperimetrico in R^n.
Resumo:
Studi recenti hanno evidenziato cambiamenti nei ritmi alpha (8-12 Hz) e theta (4-8 Hz) in vari processi modulatori top-down e di controllo cognitivo come la memoria di lavoro (WM, working memory) e la soppressione di distrattori. I compiti di WM richiedono attenzione interna sostenuta per dare priorità alle informazioni rilevanti a discapito di quelle interferenti che distraggono dall’obiettivo. I meccanismi di attenzione in tali compiti sono associati ad aumento di potenza alpha, che riflette la funzione inibitoria di tale ritmo, in regioni che elaborano informazioni distraenti, e ad aumento di potenza theta, soprattutto in regioni frontali, che riflette funzioni di controllo cognitivo per raggiungere l’obiettivo pur in presenza di interferenze. Questo lavoro è volto ad indagare gli effetti di distrattori acustici rispetto a distrattori visivi in un compito di visual WM. A tale scopo sono stati acquisiti ed elaborati i segnali EEG di 12 soggetti volontari mentre eseguivano un compito di visual WM, in cui la fase di retention (mantenimento in memoria delle informazioni codificate) veniva interrotta con la presentazione di distrattori di due modalità sensoriali differenti (visiva e acustica), per valutare le variazioni dell’attività cerebrale in termini di ritmi alpha e theta e le regioni coinvolte. Si è osservato un aumento maggiore di potenza alpha (principalmente posteriore) in presenza del distrattore acustico rispetto al visivo sia nella fase pre-distrattore che nella fase distrattore, statisticamente significativo nella fase distrattore. Si è osservato un aumento maggiore di potenza theta (principalmente frontale) in presenza del distrattore acustico rispetto al visivo in tutte le fasi del task, statisticamente significativo nella fase iniziale di retention e nella fase del distrattore. I risultati potrebbero indicare una maggiore necessità di controllo cognitivo e di protezione da stimoli interferenti in caso di distrattore acustico rispetto al visivo.
Resumo:
I metodi utilizzati per la stima delle portate fluviali in bacini idrografici non strumentati fanno uso di tecniche di regionalizzazione con l’obiettivo di stimare i parametri, attraverso dei bacini di riferimento, da implementare nei modelli idrologici. Risulta, quindi, di fondamentale importanza la selezione dei bacini idrografici donatori. La scelta dei bacini di riferimento avviene tramite delle misure di somiglianza che tengono conto di caratteristiche del territorio. Il limite principale di tali approcci è la mancata considerazione della struttura della rete idrografica e del loro eventuale annidamento. Si definiscono bacini idrografici annidati due o più bacini i cui le stazioni idrometriche sono posizionate lungo la stessa ascissa fluviale oppure presentano un'area comune drenata da entrambi i bacini. Skøien et al. (2006) afferma che i bacini a valle e a monte del bacino preso in esame dovrebbero essere trattati differentemente. Il presente lavoro intende contribuire a superare detto limite. È stata stabilita, un’equazione empirica a due parametri che attraverso la distanza interbacino d e il grado di annidamento NI, definisce la differenza di portata idrica ∆Q in una coppia di bacini annidati. I valori dei parametri α e λ sono stati definiti mediante calibrazione con set di dati relativi a portate massime annuali di medie giornaliere e massimi annuali istantanei. Sono stati analizzati i corsi d’acqua in Italia, Austria e Polonia mentre a scala di bacino il Fiume Po, il Fiume Danubio, il Fiume Reno e il Fiume Oder. Attraverso la massimizzazione di una funzione obiettivo di tipo quadratico sono state verificate le prestazioni del metodo proposto. La differenza di portate ∆Q ricavata è possibile definirla come una misura di somiglianza la quale potrebbe, attraverso caratteristiche geospaziali facilmente reperibili, definire i bacini di riferimento da utilizzare nei metodi di regionalizzazione dei deflussi fluviali.
Resumo:
"Electrification" è il concetto su cui è stata fondata l’idea del progetto trattato nell’elaborato. Si sente spesso parlare di elettrificazione e di transizione energetica, specialmente nell’ambito in cui ho avuto occasione di svolgere il tirocinio in preparazione della tesi. L’azienda con cui ho lavorato sull’attività di ricerca e analisi è, infatti, incentrata sul mercato Oil & Gas, per cui, in particolar modo in questo periodo storico, risente di un’enorme spinta all’ electrification e all’ottimizzazione degli impianti. A tal proposito, si sta dirigendo verso soluzioni che possano fornire supporto alla rete ed anche ridurre le emissioni di gas inquinanti in atmosfera. L’attività di ricerca si è basata su quelle che sono le tecnologie e le disponibilità sul mercato per sistemi di accumulo di energia all’interno dell’ambito industriale, con particolare attenzione ad aspetti quali sicurezza e innovazione. Le applicazioni di un sistema di accumulo sono svariate, per cui nell’elaborato ne sono state trattate due in particolare: peak shaving e sistema di backup. Sono stati sviluppati, quindi, tre progetti in parallelo: uno relativo al caso di peak shaving e due riguardanti sistemi di backup all’interno di una control cabin. Nel primo caso si è partiti da un progetto ex novo, mentre negli altri due casi si è fatto riferimento a due casi studio già ben definiti relativi a due impianti già esistenti a cui è stata sostituita la tecnologia alla base delle celle elettrochimiche che costituiscono il rack di batterie. L’obiettivo principale della tesi è stato dunque quello di progettare il sistema di accumulo per i relativi casi studio e di verificarne la fattibilità.
Resumo:
La tesi si incentra nello studio e utilizzo del linguaggio Scala per aspetti di ingestion, processing e plotting di dati, prestando enfasi su time series. Questa è costituita da una prima parte introduttiva sui principali argomenti, per poi concentrarsi sull’analisi dei requisiti, il modello del dominio, il design architetturale e la sua implementazione. Termina infine con qualche nota conclusiva riguardante possibili sviluppi futuri. La parte progettuale consiste nello sviluppo di un’applicazione che supporti le librerie scelte e che favorisca il processo in modo agevole. La validazione del progetto software realizzato viene fatta tramite una sequenza di varie configurazioni a dimostrarne la differenza tra la scelta di determinate opzioni: ciascuna viene accompagnata da una o pi`u immagini che ne dimostrano i risultati ottenuti a seguito dell’uso del programma.
Resumo:
La Stereo Vision è un popolare argomento di ricerca nel campo della Visione Artificiale; esso consiste nell’usare due immagini di una stessa scena,prodotte da due fotocamere diverse, per estrarre informazioni in 3D. L’idea di base della Stereo Vision è la simulazione della visione binoculare umana:le due fotocamere sono disposte in orizzontale per fungere da “occhi” che guardano la scena in 3D. Confrontando le due immagini ottenute, si possono ottenere informazioni riguardo alle posizioni degli oggetti della scena.In questa relazione presenteremo un algoritmo di Stereo Vision: si tratta di un algoritmo parallelo che ha come obiettivo di tracciare le linee di livello di un area geografica. L’algoritmo in origine era stato implementato per la Connection Machine CM-2, un supercomputer sviluppato negli anni 80, ed era espresso in *Lisp, un linguaggio derivato dal Lisp e ideato per la macchina stessa. Questa relazione tratta anche la traduzione e l’implementazione dell’algoritmo in CUDA, ovvero un’architettura hardware per l’elaborazione pa- rallela sviluppata da NVIDIA, che consente di eseguire codice parallelo su GPU. Si darà inoltre uno sguardo alle difficoltà che sono state riscontrate nella traduzione da *Lisp a CUDA.
Resumo:
Il presente elaborato mira ad approfondire il settore della traduzione audiovisiva e, in particolare, la pratica dell’adattamento dialoghi per il doppiaggio, che costituisce la modalità traduttiva più utilizzata in Italia in ambito cinetelevisivo. L’elaborato prende come esempio tre episodi della serie TV britannica Inside No. 9 (BBC, 2014), di genere dark humour, per i quali vengono proposti la traduzione e l’adattamento dialoghi per il doppiaggio in italiano. Innanzitutto, viene presentata una panoramica generale sulla serie TV, sul contesto teorico della traduzione audiovisiva e dell’industria del doppiaggio, nonché, visto il genere della serie TV scelta, sulle strategie di traduzione più adeguate alla resa di contenuti audiovisivi umoristici. Successivamente, si passa a un’analisi previa del testo di partenza, con approfondimenti su tutti i fattori e i vincoli da tenere in considerazione durante la stesura dell’adattamento dialoghi. L’elaborato si conclude con un’analisi delle problematiche emerse durante il processo traduttivo e delle strategie impiegate per la realizzazione di una versione italiana fedele all’originale, con un focus sulle difficoltà specifiche legate alla natura intersemiotica del medium audiovisivo.
Resumo:
Si pensa che i campi magnetici siano presenti in qualsiasi oggetto celeste, e nel mezzo tra di essi. Non siamo capaci di misurare questi campi in modo diretto, ma possiamo derivare delle misure da metodi indiretti, osservando e analizzando gli effetti che essi hanno sulla radiazione. Questi possono riguardare sia come la radiazione si propaga sia come essa viene generata. I campi magnetici esercitano una forza sul plasma cosmico, e possono influenzare in maniera più o meno marcata il moto di questo. Essi non possono competere con le interazioni gravitazionali in gioco nelle galassie, o in scale ancora più grandi, ma giocano un ruolo fondamentale nei moti del gas sulle piccole scale. In questo scritto analizzeremo per prima cosa i principali metodi utili per la rilevazione dei campi magnetici in astrofisica senza entrare eccessivamente nel dettaglio, ma riportando gli aspetti essenziali sia dal punto di vista descrittivo dell’effetto fisico sul quale si basano, sia dal punto di vista delle formule. Dopodiché si passera ad analizzare i principali scenari ipotizzati per l’origine dei campi magnetici di una galassia. Si accennerà anche all’amplificazione di piccoli campi originari per raggiungere i valori osservati oggigiorno. Al fine di trattare questo particolare aspetto, si spenderà un capitolo per parlare del congelamento del campo nella materia. Infine nell’ultimo capitolo si affronterà il campo magnetico della Via Lattea. Ci si concentrerà in tre regioni diverse della galassia: l’halo, il disco e la zona centrale. Per questi si riporteranno i risultati ottenuti utilizzando i vari metodi precedentemente descritti, al fine di ottenere un’idea di quale sia la struttura a larga scala del campo magnetico della galassia.