607 resultados para Chiloscyllium punctatum, Crescita, Sacco vitellino, Sviluppo embrionale, Illuminamento, Acquario
Resumo:
Nel primo punto del capitolo seguente si propone una panoramica sulla decarbonizzazione del settore energetico e si discutono i principali provvedimenti europei avviati a tal fine. Si analizza lo scenario energetico italiano e le sue prospettive future; anche l’Italia deve impegnarsi in termini di energie rinnovabili e riduzione dei gas serra. Nel settore energetico nazionale sono comprese la produzione, la trasformazione e l’utilizzo di energia elettrica. In questa fase in particolare, si studiano i dati relativi alla fase di produzione. Inoltre, si studia la dipendenza energetica dell’Italia dalle fonti fossili estere. Di seguito saranno analizzati i piani energetici auspicabili per il 2030 e per il 2050. Nel secondo punto si passa poi all’analisi dei consumi, attraverso lo studio dei consumi medi e l’approfondimento sui consumi dei principali elettrodomestici. Nella prima sezione del capito che segue vengono analizzati i principali sistemi di accumulo di energia domestica con particolare enfasi riguardo i limiti applicativi. Le batterie a litio seppur relativamente economiche hanno un forte impatto ambientale che sarebbe ammortizzato utilizzando un nuovo modello di volano (MechSTOR). Nella seconda parte del capitolo, si esamina invece la fattibilità del modello di accumulo a volano. I costi del volano verrebbero ammortizzati dal guadagno relativo all’immissione in rete di energia elettrica? L’analisi in Simulink ha permesso di lavorare con i segnali di potenza, utilizzando le curve di carico domestico e la curva di produzione fotovoltaica al fine di studiare la convenienza economica della batteria a volano.
Resumo:
L'oggetto di questo elaborato è lo studio di un collegamento wireless alle frequenze dei Terahertz, quindi nel range compreso tra i 300 GHz e i 3 THz. In particolare, si studierà il caso di una trasmissione wireless di alcuni metri all'interno di un ambiente chiuso, mostrando in che modo le diverse frequenze vengono attenuate. L’interesse per queste frequenze è motivato dalla quantità di tecnologie sviluppabili con esse, come ad esempio il 6G. Nell’elaborato verranno trattate anche le problematiche che si devono affrontare quando si sceglie di usare i THz, in particolare l’attenuazione dovuta all’assorbimento molecolare dovuto all’aria e alle condizioni atmosferiche variabili, il che rende la trasmissione THz ancora precaria.
Resumo:
L’Internet of Things (IoT) è un termine utilizzato nel mondo della telecomunicazione che fa riferimento all’estensione di Internet al mondo degli oggetti, che acquisiscono una propria identità, venendo così definiti “intelligenti”. L’uomo in questo ambito avrà sempre meno incidenza sul campo poiché sono le macchine ad interagire tra loro scambiandosi informazioni. Gli ambiti applicativi che comprendono IoT sono innumerevoli ed eterogenei; pertanto, non esiste un'unica soluzione tecnologica che possa coprire qualsiasi scenario. Una delle tecnologie che si prestano bene a svolgere lavori in IoT sono le LoRaWAN. Un punto e una sfida essenziali nell'applicazione della tecnologia LoRaWAN è garantire la massima autonomia dei dispositivi ottenendo il più basso consumo di energia possibile e la ricerca di soluzioni di alimentazione efficienti. L'obiettivo in questo elaborato è quello di realizzare un sistema capace di trasmettere un flusso continuo di informazioni senza l'ausilio e il costante monitoraggio dell'uomo. Viene trattato come controllare dei sensori da remoto e come garantire una migliore autonomia dei dispositivi ottenendo un più basso consumo energetico.
Resumo:
L’immunoterapia è una delle tecniche più all’avanguardia per la lotta contro il cancro e si basa sull’aumento delle prestazioni del sistema immunitario attraverso anticorpi monoclonali (ovvero farmaci immunoterapici). Grazie a questi, la terapia garantisce l’inibizione dei checkpoint immunologici, che permettono alle cellule del sistema immunitario di riconoscere la presenza del tumore e aggredirlo fino a eradicarlo. La tesi propone una soluzione frazionaria al problema della crescita tumorale, basandosi su un modello di Kuznetsov esteso dove viene presa in considerazione anche il parametro di concentrazione di Interleuchina-2. Tramite un’analisi di stabilità del modello proposto è possibile arrivare a un valore di sigma, ovvero il rateo di cellule effettrici, per il quale il sistema delle cellule tumorali viene completamente eradicato. Una volta trovata la condizione di stabilità e calcolato il valore di alpha (ordine della derivata frazionaria) che approssima al meglio la crescita tumorale nel caso reale, viene proposto un sistema di controllo automatico in retroazione basato sul numero di cellule effettrici per automatizzare il processo immunoterapico.
Resumo:
L'obbiettivo della seguente tesi è quello di analizzare quali sono ad oggi i migliori framework per lo sviluppo di software in Mixed Reality e studiare i design pattern più utili ad uno sviluppatore in questo ambito. Nel primo capitolo vengono introdotti i concetti di realtà estesa, virtuale, aumentata e mista con le relative differenze. Inoltre vengono descritti i diversi dispositivi che consentono la realtà mista, in particolare i due visori più utilizzati: Microsoft Hololens 2 e Magic Leap 1. Nello stesso capitolo vengono presentati anche gli aspetti chiave nello sviluppo in realtà mista, cioè tutti gli elementi che consentono un'esperienza in Mixed Reality. Nel secondo capitolo vengono descritti i framework e i kit utili per lo sviluppo di applicazioni in realtà mista multi-piattaforma. In particolare vengono introdotti i due ambienti di sviluppo più utilizzati: Unity e Unreal Engine, già esistenti e non specifici per lo sviluppo in MR ma che diventano funzionali se integrati con kit specifici come Mixed Reality ToolKit. Nel terzo capitolo vengono trattati i design pattern, comuni o nativi per applicazioni in realtà estesa, utili per un buono sviluppo di applicazioni MR. Inoltre, vengono presi in esame alcuni dei principali pattern più utilizzati nella programmazione ad oggetti e si verifica se e come sono implementabili correttamente su Unity in uno scenario di realtà mista. Questa analisi risulta utile per capire se l'utilizzo dei framework di sviluppo, metodo comunemente più utilizzato, comporta dei limiti nella libertà di sviluppo del programmatore.
Resumo:
Le esperienze cooperative in realtà mista. Che cosa sono? Quali sono gli scopi dietro il loro sviluppo? Che cosa aspetta uno sviluppatore che si avvicina a questi sistemi? Questa tesi cerca di rispondere a queste domande ponendo sotto esame diverse tecnologie di collocazione molto recente, analizzando un progetto preso come caso di studio e implementato tramite diversi strumenti. Al giorno d’oggi, la sfera della realtà mista/realtà aumentata si sta espandendo sempre di più, arrivando a sfiorare mondi che prima risultavano totalmente scollegati. Il mondo dello sviluppo in ambito gaming è entrato infine in questo panorama grazie alle tante similarità con certi tipi di applicazioni MR. Uno degli strumenti più utilizzati in questo ambito è Unity, un motore grafico utilizzato per creare videogiochi e non solo: in questo progetto si sfrutterà questo ambiente di sviluppo per realizzare una semplice applicazione in realtà mista cooperativa, che permetta quindi l’accesso a più utenti contemporaneamente e la loro interazione. Per farlo, si valuteranno diverse opzioni, in particolare due, Netcode for GameObjects e Photon PUN, provenienti da due ambienti diversi ma entrambe strettamente legate a Unity, cercando di ottenere lo stesso risultato ma con due strade diverse come base per un confronto. Basteranno queste tecnologie o ci vuole ancora altro per la realtà mista? Questo studio trova una base matura e pronta a uscire dal suo guscio? Oppure c’è ancora tanta strada da fare? Sulla base di questo verrà tenuto il confronto, cercando una risposta generale ma concreta. Questa tesi si dividerà in due parti: la parte introduttiva, che fornirà tutti i concetti sulla realtà mista necessari e un panorama sull’ambiente MR in generale. La seconda, invece, servirà a illustrare quali sono le sfide di uno sviluppo in questo mondo, usando un progetto applicativo come soluzione a queste sfide o almeno ad una loro parte.
Resumo:
“Viviamo in un periodo storico molto speciale, un periodo raro, un periodo in cui la confluenza di quattro campi sta fornendo ai designer strumenti che mai prima d’ora avevamo a disposizione.” Questo è ciò che Neri Oxman, designer e professoressa al MIT Media Lab, ha detto durante un Ted Talk tenutosi ormai sette anni fa. Il suo messaggio rimane così attuale e interessante, che continua ad ispirare ancora oggi tantissimi designer, scienziati e ingegneri, compreso me e questa tesi. Uno dei campi citati è il design computazionale. A seguito di una prima fase di ricerca è emerso che è già stato fatto molto in questo campo, ma c’è ancora tanto da esplorare. L’obiettivo di questa tesi è indagare l’uso di questa disciplina come booster creativo di cui il designer può avvalersi nelle diverse fasi del percorso progettuale. Per farlo, ho deciso di sperimentare tramite un esempio pratico: la progettazione di un gilet di idratazione per corridori. Inizialmente, sono stati studiati quali sono i requisiti che deve avere un progetto perché il designer possa sfruttare efficacemente il design computazionale durante tutta la progettazione. Nella fase di concept, è stato analizzato come l’approccio di questa disciplina aiuta il progettista nell’identificazione dei problemi e delle priorità progettuali. Sono poi stati usati e testati diversi strumenti del design computazionale, quali algoritmi e design generativo, per determinare alcune caratteristiche del prodotto definitivo. Il risultato di questo percorso di tesi è Aliqua, un gilet di idratazione per corridori più efficace e performante rispetto a quelli ora esistenti, progettato integrando il design intuitivo con quello computazionale. Sicuramente ci sono ancora molte cose che possono essere migliorate per rendere l’uso degli strumenti di questo campo più intuitivi e performanti, ma questa tesi dimostra che il design computazionale è fin da ora un valido alleato del designer durante tutte le fasi di progettazione.
Resumo:
L’Intelligenza Artificiale negli ultimi anni sta plasmando il futuro dell’umanità in quasi tutti i settori. È già il motore principale di diverse tecnologie emergenti come i big data, la robotica e l’IoT e continuerà ad agire come innovatore tecnologico nel futuro prossimo. Le recenti scoperte e migliorie sia nel campo dell’hardware che in quello matematico hanno migliorato l’efficienza e ridotto i tempi di esecuzione dei software. È in questo contesto che sta evolvendo anche il Natural Language Processing (NLP), un ramo dell’Intelligenza Artificiale che studia il modo in cui fornire ai computer l'abilità di comprendere un testo scritto o parlato allo stesso modo in cui lo farebbe un essere umano. Le ambiguità che distinguono la lingua naturale dalle altre rendono ardui gli studi in questo settore. Molti dei recenti sviluppi algoritmici su NLP si basano su tecnologie inventate decenni fa. La ricerca in questo settore è quindi in continua evoluzione. Questa tesi si pone l'obiettivo di sviluppare la logica di una chatbot help-desk per un'azienda privata. Lo scopo è, sottoposta una domanda da parte di un utente, restituire la risposta associata presente in una collezione domande-risposte. Il problema che questa tesi affronta è sviluppare un modello di NLP in grado di comprendere il significato semantico delle domande in input, poiché esse possono essere formulate in molteplici modi, preservando il contenuto semantico a discapito della sintassi. A causa delle ridotte dimensioni del dataset italiano proprietario su cui testare il modello chatbot, sono state eseguite molteplici sperimentazioni su un ulteriore dataset italiano con task affine. Attraverso diversi approcci di addestramento, tra cui apprendimento metrico, sono state raggiunte alte accuratezze sulle più comuni metriche di valutazione, confermando le capacità del modello proposto e sviluppato.
Resumo:
La presente trattazione propone un metodo innovativo per la fast DC charge, che permette di collegare le colonnine di ricarica a 400 V ai veicoli con batteria ad 800 V. Il collegamento avviene tramite l’azionamento elettrico di propulsione, che deve dunque essere riconfigurato durante la ricarica sotto forma di “integrated boost DC/DC converter”. L'elaborato illustra il modello matematico del sistema, lo schema di controllo in ambiente Simulink ed i risultati delle simulazioni. Infine, sono illustrate le prove a banco effettuate sul sistema in esame, la strumentazione utilizzata ed i risultati ottenuti per le configurazioni confrontate. Tuttavia, si dimostra che il metodo di ricarica richiede un’ulteriore induttanza per il collegamento al motore per evitare gli elevati ripple delle correnti di fase ed il conseguente surriscaldamento dei magneti rinvenuto durante le prove sperimentali.
Resumo:
In questo elaborato viene trattata l’analisi del problema di soft labeling applicato alla multi-document summarization, in particolare vengono testate varie tecniche per estrarre frasi rilevanti dai documenti presi in dettaglio, al fine di fornire al modello di summarization quelle di maggior rilievo e più informative per il riassunto da generare. Questo problema nasce per far fronte ai limiti che presentano i modelli di summarization attualmente a disposizione, che possono processare un numero limitato di frasi; sorge quindi la necessità di filtrare le informazioni più rilevanti quando il lavoro si applica a documenti lunghi. Al fine di scandire la metrica di importanza, vengono presi come riferimento metodi sintattici, semantici e basati su rappresentazione a grafi AMR. Il dataset preso come riferimento è Multi-LexSum, che include tre granularità di summarization di testi legali. L’analisi in questione si compone quindi della fase di estrazione delle frasi dai documenti, della misurazione delle metriche stabilite e del passaggio al modello stato dell’arte PRIMERA per l’elaborazione del riassunto. Il testo ottenuto viene poi confrontato con il riassunto target già fornito, considerato come ottimale; lavorando in queste condizioni l’obiettivo è di definire soglie ottimali di upper-bound per l’accuratezza delle metriche, che potrebbero ampliare il lavoro ad analisi più dettagliate qualora queste superino lo stato dell’arte attuale.
Resumo:
L’ambito videoludico è in forte espansione, andando a coinvolgere diversi settori ed ambiti. Infatti, i videogiochi possono avere scopi diversi e più articolati oltre al semplice intrattenimento e questo è proprio l'obiettivo dei Serious Game. Questi hanno come scopo quello di insegnare qualcosa tramite il gameplay stesso e vengono quindi utilizzati nel contesto educativo e dell'apprendimento. In questo contesto, il volume di tesi presenta il design e l'implementazione di un prototipo di serious game sviluppato per uno scopo ben definito: supporto e potenziamento dell’attenzione visuospaziale, facendo concentrare per l’appunto l’attenzione del giocatore sulle sue azioni, combinando facoltà visive, riflessi e anche memoria. Il gioco è pensato per essere adatto a tutti i giocatori, ma è stato sviluppato con un'attenzione particolare agli studenti che soffrono di Disturbi Specifici dell’Apprendimento (DSA). Il progetto è stato infatti sviluppato con Develop-Player, una Spin-off dell’Università di Bologna in cui psicologi, neuropsicologi e logopedisti hanno individuato nuovi metodi per potenziare i meccanismi più profondi dell’apprendimento e collaborano con informatici esperti nelle tecnologie più avanzate per l’implementazione di nuove esperienze interattive.
Resumo:
Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.
Resumo:
Questa tesi nasce dalla necessità di sviluppare uno strumento capace d’individuare potenziali plagi in progetti software. Il plagiarismo nel software è pratica che, nel tempo, ha visto numerosi scontri legali (ad esempio, Oracle contro Google per Android), e per il quale sono pochi i progetti open source di facile utilizzo pratico. L’elaborato, quindi, si addentra nelle tecniche di analisi e d’individuazione di possibili plagi, presentando il processo di progettazione e sviluppo dello strumento.
Resumo:
L'intelligenza artificiale (IA) trova nei giochi un campo di applicazione molto vasto, nel quale poter sperimentare svariate tecniche e proporre nuove stimolanti sfide che spingano i partecipanti ad esplorare nuovi orizzonti nell'ambito delle applicazioni di IA. La Keke AI Competition rappresenta una di queste sfide, introducendo una gara tra agenti intelligenti per il gioco Baba is You, puzzle game in cui i giocatori possono creare regole che influenzano le meccaniche del gioco in maniera temporanea o permanente. La natura di queste regole dinamiche crea una sfida per l'intelligenza artificiale, che deve adattarsi ad una varietà di combinazioni di meccaniche per risolvere un livello. Questo progetto di tesi si propone di realizzare un agente intelligente che possa idealmente partecipare alla competizione sfruttando tecniche di pianificazione automatica. In particolare, l'agente progettato si basa sull'algoritmo di pianificazione graphplan che opera a diversi livelli di astrazione posti in gerarchia tra loro ed è stato realizzato completamente in Prolog. Questo progetto mostra quindi come le tecniche di pianificazione automatica siano un valido strumento per risolvere alcune tipologie di giochi innovativi complessi nell'ambito dell'IA.
Resumo:
Il mondo delle macchine automatiche è in costante evoluzione, ed è in questo contesto che si colloca l’attività di analisi e progettazione oggetto di questo studio. Tutto questo è stato svolto presso l’azienda G.D S.p.A. All’interno dell’Ufficio Tecnico dell’azienda, in collaborazione con l’Ufficio Calcolo, è stata analizzata la resistenza dei componenti, il comportamento deformativo e lo stato tensionale di una testa di taglio principalmente per filtri e cannucce, con lo scopo di sviluppare una nuova soluzione a velocità incrementata, già presente in diverse macchine automatiche e che verrà implementata in molte altre ancora in fase di produzione e progettazione. A tale scopo vengono effettuate diverse verifiche sui componenti, confrontando continuamente i risultati con la situazione attuale di funzionamento e con innovative simulazioni dinamiche e FEM, sull’intero assieme, con lo scopo di prendere in considerazione il maggior numero di contributi alle sollecitazioni, alle deformazioni ed alle vibrazioni possibili, che potrebbero causare criticità o malfunzionamenti del sistema, modellando nel modo più realistico possibile il funzionamento e la movimentazione del meccanismo. L’attuale produttività massima della macchina si attesta su 5000 pz/min con una velocità di rotazione della testa di taglio di 2500 rpm. L’analisi e il miglioramento del sistema ha l’obiettivo di aumentare la velocità di produzione, e quindi di rotazione, a 6000 pz/min e 3000 rpm. Viene infine analizzata la nuova soluzione, verificando anche con prove di funzionamento la validità delle simulazioni e della riprogettazione effettuati. Sono stati studiati e presi in considerazione tutti gli aspetti fondamentali della testa di taglio, nel suo assieme e di ogni suo componente, con lo scopo di migliorarne le prestazioni e la produttività garantendo la sicurezza del meccanismo e al tempo stesso un funzionamento ottimale con la creazione di un prodotto di ottima qualità.