998 resultados para Funzione zeta di Hasse-Weil Varietà su campi finiti
Resumo:
L’utilizzo di nanomateriali, ovvero una nuova classe di sostanze composte da particelle ultrafini con dimensioni comprese fra 1 e 100 nm (American Society for Testing Materials - ASTM), è in costante aumento a livello globale. La particolarità di tali sostanze è rappresentata da un alto rapporto tra la superficie e il volume delle particelle, che determina caratteristiche chimico-fisiche completamente differenti rispetto alle omologhe macrosostanze di riferimento. Tali caratteristiche sono tali da imporre una loro classificazione come nuovi agenti chimici (Royal Society & Royal Academy of Engineering report 2004). Gli impieghi attuali dei nanomateriali risultano in continua evoluzione, spaziando in diversi ambiti, dall’industria farmaceutica e cosmetica, all’industria tessile, elettronica, aerospaziale ed informatica. Diversi sono anche gli impieghi in campo biomedico; tra questi la diagnostica e la farmacoterapia. È quindi prevedibile che in futuro una quota sempre maggiore di lavoratori e consumatori risulteranno esposti a tali sostanze. Allo stato attuale non vi è una completa conoscenza degli effetti tossicologici ed ambientali di queste sostanze, pertanto, al fine di un loro utilizzo in totale sicurezza, risulta necessario capirne meglio l’impatto sulla salute, le vie di penetrazione nel corpo umano e il rischio per i lavoratori conseguente al loro utilizzo o lavorazione. La cute rappresenta la prima barriera nei confronti delle sostanze tossiche che possono entrare in contatto con l’organismo umano. Successivamente agli anni ‘60, quando si riteneva che la cute rappresentasse una barriera totalmente impermeabile, è stato dimostrato come essa presenti differenti gradi di permeabilità nei confronti di alcuni xenobiotici, dipendente dalle caratteristiche delle sostanze in esame, dal sito anatomico di penetrazione, dal grado di integrità della barriera stessa e dall’eventuale presenza di patologie della cute. La mucosa del cavo orale funge da primo filtro nei confronti delle sostanze che entrano in contatto con il tratto digestivo e può venir coinvolta in contaminazioni di superficie determinate da esposizioni occupazionali e/o ambientali. È noto che, rispetto alla cute, presenti una permeabilità all’acqua quattro volte maggiore, e, per tale motivo, è stata studiata come via di somministrazione di farmaci, ma, ad oggi, pochi sono gli studi che ne hanno valutato le caratteristiche di permeazione nei confronti delle nanoparticelle (NPs). Una terza importante barriera biologica è quella che ricopre il sistema nervoso centrale, essa è rappresentata da tre foglietti di tessuto connettivo, che assieme costituiscono le meningi. Questi tre foglietti rivestono completamente l’encefalo permettendone un isolamento, tradizionalmente ritenuto completo, nei confronti degli xenobiotici. L’unica via di assorbimento diretto, in questo contesto, è rappresentata dalla via intranasale. Essa permette un passaggio diretto di sostanze dall’epitelio olfattivo all’encefalo, eludendo la selettiva barriera emato-encefalica. Negli ultimi anni la letteratura scientifica si è arricchita di studi che hanno indagato le caratteristiche di assorbimento di farmaci attraverso questa via, ma pochissimi sono gli studi che hanno indagato la possibile penetrazione di nanoparticelle attraverso questa via, e nessuno, in particolar modo, ha indagato le caratteristiche di permeazione delle meningi. L’attività di ricerca svolta nell’ambito del presente dottorato ha avuto per finalità l’indagine delle caratteristiche di permeabilità e di assorbimento della cute, della mucosa del cavo orale e delle meningi nei confronti di alcune nanoparticelle, scelte fra quelle più rappresentative in relazione alla diffusione d’utilizzo a livello globale. I risultati degli esperimenti condotti hanno dimostrato, in vitro, che l’esposizione cutanea a Pt, Rh, Co3O4 e Ni NPs determinano permeazione in tracce dei medesimi metalli attraverso la cute, mentre per le TiO2 NPs tale permeazione non è stata dimostrata. È stato riscontrato, inoltre, che la mucosa del cavo orale e le meningi sono permeabili nei confronti dell’Ag in forma nanoparticellare.
Resumo:
Parametro indispensabile di valutazione di un qualsiasi prodotto o servizio, ai giorni nostri, è la web reputation. Sono sempre più numerose le aziende che monitorano la propria "reputazione online". Quest'ultima può esser definita come l'insieme dei messaggi, commenti e feedbacks, positivi, neutri o negativi che siano, di utenti che esprimono la loro opinione tramite il web su un determinato servizio o prodotto rivolto al pubblico. L’applicazione sviluppata, si pone l’obiettivo di analizzare in tempo reale tramite l’utilizzo di Apache Storm, dati provenienti da fonti eterogenee, classificarli tramite KNIME utilizzando tecniche di classificazione quali SVM, alberi decisionali e Naive Bayesian, renderli persistenti mediante l’utilizzo del database NoSQL HBASE e di visualizzarli in tempo reale attraverso dei grafici utilizzando delle servlet, al fine di costituire un valido strumento di supporto per i processi decisionali.
Resumo:
La presente tesi si occupa di identificare la metodologia utilizzata per la definizione di percorsi Real Driving Emissions. Nel particolare sono stati individuati due percorsi, uno in piano, definite RDE Moderate Track ed uno in quota, definito RDE Extended Track. Si è anche eseguita una analisi dei cicli su banco a rulli NEDC e WLTC in ottica Real Driving Emissions.
Resumo:
Ed. by I. Moutier.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Questo elaborato di tesi ha lo scopo di illustrare un'applicazione realizzata per dispositivi Android in grado di localizzare l'utente all'interno di un ambiente indoor sfruttando l'utilizzo dei Beacon e dare una valutazione dei risultati ottenuti. L'utente potrà registrare i dispositivi Beacon in suo possesso all'interno dell'applicazione, caricare la planimetria di un ambiente e configurarlo indicando esattamente quale Beacon si trova in una determinata posizione. Infine potrà scegliere quale tra i tre algoritmi implementati (Prossimità, Triangolazione e Fingerprinting) utilizzare per visualizzare la propria posizione sulla mappa. I tre algoritmi sono stati sottoposti a vari test che hanno permesso di analizzare le differenze tra di essi in termini di accuratezza e le performance generali dell'applicativo.
Resumo:
Negli ultimi anni il crescere della capacità di calcolo dei dispositivi e il diminuire delle loro dimensioni ha permesso di far nascere idee innovative e di esplorare più in dettaglio alcuni settori. Uno di questi è sicuramente quello della realtà aumentata (Augmented reality), infatti, la discussione su questo argomento nasce già negli anni 40 del novecento, ma, per mancanza di mezzi tecnologici adeguati, solo ora si iniziano a realizzare le prime applicazioni che si basano su questa idea e il grande pubblico inizia ad interessarsi all'argomento. La costruzione di applicazioni di realtà aumentata, al momento, è basata sull'utilizzo di alcuni framework che mettono a disposizione dello sviluppatore alcune funzioni molto comuni in questi software, come il tracking di marker e l'utilizzo di bottoni virtuali. Questi strumenti, seppur comodi, non garantiscono sempre la buona progettazione dell'applicazione e tendono a unire insieme parti di logica applicativa e di grafica. Per questo motivo, anche nella ricerca, si stanno cercando di studiare dei metodi in grado di permettere una divisione ottimale dei compiti in modo da ottenere un software riusabile e facilmente mantenibile, ma che permetta anche di sfruttare appieno le potenzialità dell'AR attraverso, per esempio, sistemi distribuiti. Un framework concettuale che rientra in questa categoria è sicuramente quello degli Augmented Worlds, mondi virtuali collegati a quello fisico che ne incrementano le caratteristiche e le possibilità tramite la presenza di entità aumentate. La tesi, quindi, si propone di sviluppare un prototipo di un framework con le caratteristiche sopra citate di estendibilità, utilizzando le piattaforme in questo momento a disposizione e ispirandosi alla visione degli Augmented Worlds.
Resumo:
Le ultime ricerche in campo oncologico sulle cure antitumorali sono indirizzate verso una categoria definita target therapy. In particolare tra le più promettenti, le terapie antiangiogenetiche, il cui scopo primario è quello di limitare l’apporto di sangue al tumore. In questo contesto la Tomografia Computerizzata (TC) perfusionale rappresenta un’importante tecnica di imaging radiologico in grado, teoricamente, di fornire misure quantitative, che permettano una valutazione, anche precoce, della risposta alle terapie antiangiogenetiche. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, che determinano la scarsa riproducibilità dei risultati intra- ed inter-paziente, non consentendone l’uso nella pratica clinica. In letteratura sono presenti diversi studi riguardanti la perfusione dei tumori polmonari, ma vi sono pochi studi sull’affidabilità dei parametri perfusionali calcolati. Questa Tesi si propone di analizzare, quantificare e confrontare gli errori e l’affidabilità dei parametri perfusionali calcolati attraverso la TC perfusionale. In particolare, vengono generate delle mappe di errore ed effettuati dei confronti di diverse regioni del polmone sano. I risultati ottenuti dall’analisi dei casi reali sono discussi al fine di poter definire dei livelli di affidabilità dei parametri perfusionali e di quantificare gli errori che si commettono nella valutazione dei parametri stessi. Questo studio preliminare consentirà, quindi, un’analisi di riproducibilità, permettendo, inoltre, una normalizzazione dei valori perfusionali calcolati nella lesione, al fine di effettuare analisi intra- ed inter-paziente.
Resumo:
GOG-Fit è un servizio che offre maschere da neve personalizzate, stampate in 3D su misura del cliente. Il modello di maschera prodotto è composto da due moduli, uniti tra loro grazie a incastri magnetici.
Resumo:
Ricavare informazioni dalla realtà circostante è un obiettivo molto importante dell'informatica moderna, in modo da poter progettare robot, veicoli a guida autonoma, sistemi di riconoscimento e tanto altro. La computer vision è la parte dell'informatica che se ne occupa e sta sempre più prendendo piede. Per raggiungere tale obiettivo si utilizza una pipeline di visione stereo i cui passi di rettificazione e generazione di mappa di disparità sono oggetto di questa tesi. In particolare visto che questi passi sono spesso affidati a dispositivi hardware dedicati (come le FPGA) allora si ha la necessità di utilizzare algoritmi che siano portabili su questo tipo di tecnologia, dove le risorse sono molto minori. Questa tesi mostra come sia possibile utilizzare tecniche di approssimazione di questi algoritmi in modo da risparmiare risorse ma che che garantiscano comunque ottimi risultati.
Resumo:
Funzione P di Weierstrass e le sue principali proprietà.
Resumo:
Con questo lavoro si vuole contribuire al dibattito riapertosi con il ritorno dell’Educazione civica in tutte le scuole italiane, a seguito dell’entrata in vigore della Legge 92/2019, in particolare valorizzando il punto di vista degli insegnanti. La ricerca è impostata secondo il disegno quantitativo dell’indagine correlazionale su ampio campione, preparata da una fase esplorativa durante la quale si sono svolte interviste semistrutturate a dieci docenti. A partire dai risultati di tale esplorazione, si è prodotto un questionario che è stato testato e revisionato nell’a.s. 2020-2021. Successivamente si sono condotte due diverse rilevazioni nell’a.s. 2021-2022: la prima su un campione rappresentativo degli insegnanti di scuola secondaria dell’Emilia-Romagna (main study), e la seconda su un campione non rappresentativo su base nazionale (rilevazione di approfondimento). I risultati dell’indagine fanno emergere un’accoglienza parziale delle innovazioni introdotte con la “nuova” Educazione civica. Le maggiori difficoltà si osservano rispetto alla progettazione collegiale dell’insegnamento, che la normativa vorrebbe affidato in contitolarità a tutto il Consiglio di classe, ma rispetto al quale sembra realizzarsi principalmente una “spartizione” delle ore, a cui fanno fronte attività gestite separatamente dai singoli insegnanti. Approcci e pratiche coerenti con i modelli della didattica per competenze tardano ad affermarsi per questo insegnamento, nonostante si siano osservate prime evidenze favorevoli in tal senso. I risultati sollevano il bisogno di maggiore accompagnamento e supporto dei docenti nell’implementazione collegiale di un curricolo di Educazione civica intenzionalmente orientato allo sviluppo delle competenze di cittadinanza.
Resumo:
Per funzioni di matrice intendiamo generalizzazioni di funzioni scalari che permettono di valutare tali funzioni anche per matrici. Esistono numerosi esempi notevoli di funzioni di matrice: tra queste la funzione esponenziale, la radice quadrata e il segno. Quest'ultima è particolarmente utile per la risoluzione di particolari equazioni matriciali come ad esempio le equazioni di Sylvester e le equazioni di Riccati. In questo elaborato introdurremo il concetto di funzione di matrice per poi soffermarci proprio sulla funzione segno. Oltre che a fornire tutte le definizioni necessarie e analizzare le proprietà che ci aiuteranno a comprendere meglio questa funzione, ci interesseremo all'implementazione di algoritmi che possano calcolare o approssimare la funzione segno di matrice. Un primo metodo sfrutterà la decomposizione di Schur: supponendo di conoscere la decomposizione della matrice, e di trovarci in algebra esatta, questo metodo non fornirà un'approssimazione del segno della suddetta matrice ma l'esatto segno della stessa. Il secondo metodo che studieremo si può definire più come una famiglia di metodi. Vedremo infatti tre algoritmi diversi che però sfruttano tutti l'iterazione di Newton, opportunamente adattata al caso matriciale: il metodo di base, convergente globalmente, in cui applicheremo semplicemente questa iterazione, ed altri due che mireranno a risolvere problemi distinti del metodo di base, ovvero il numero di iterazioni necessarie per giungere alla convergenza (introducendo il concetto di riscaling) e l'alto costo computazionale (sacrificando però la convergenza globale). Grazie all'aiuto di Matlab analizzeremo più nello specifico l'efficienza dei vari algoritmi descritti, ed infine vedremo più nello specifico come utilizzare la funzione segno di matrice per risolvere le equazioni algebriche di Sylvester e di Riccati.
Resumo:
Nell’ambito della Stereo Vision, settore della Computer Vision, partendo da coppie di immagini RGB, si cerca di ricostruire la profondità della scena. La maggior parte degli algoritmi utilizzati per questo compito ipotizzano che tutte le superfici presenti nella scena siano lambertiane. Quando sono presenti superfici non lambertiane (riflettenti o trasparenti), gli algoritmi stereo esistenti sbagliano la predizione della profondità. Per risolvere questo problema, durante l’esperienza di tirocinio, si è realizzato un dataset contenente oggetti trasparenti e riflettenti che sono la base per l’allenamento della rete. Agli oggetti presenti nelle scene sono associate annotazioni 3D usate per allenare la rete. Invece, nel seguente lavoro di tesi, utilizzando l’algoritmo RAFT-Stereo [1], rete allo stato dell’arte per la stereo vision, si analizza come la rete modifica le sue prestazioni (predizione della disparità) se al suo interno viene inserito un modulo per la segmentazione semantica degli oggetti. Si introduce questo layer aggiuntivo perché, trovare la corrispondenza tra due punti appartenenti a superfici lambertiane, risulta essere molto complesso per una normale rete. Si vuole utilizzare l’informazione semantica per riconoscere questi tipi di superfici e così migliorarne la disparità. È stata scelta questa architettura neurale in quanto, durante l’esperienza di tirocinio riguardante la creazione del dataset Booster [2], è risultata la migliore su questo dataset. L’obiettivo ultimo di questo lavoro è vedere se il riconoscimento di superfici non lambertiane, da parte del modulo semantico, influenza la predizione della disparità migliorandola. Nell’ambito della stereo vision, gli elementi riflettenti e trasparenti risultano estremamente complessi da analizzare, ma restano tuttora oggetto di studio dati gli svariati settori di applicazione come la guida autonoma e la robotica.