999 resultados para complessità computazionale primalità problemi polinomiali algoritmo aks


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Three dimensional (3D) printers of continuous fiber reinforced composites, such as MarkTwo (MT) by Markforged, can be used to manufacture such structures. To date, research works devoted to the study and application of flexible elements and CMs realized with MT printer are only a few and very recent. A good numerical and/or analytical tool for the mechanical behavior analysis of the new composites is still missing. In addition, there is still a gap in obtaining the material properties used (e.g. elastic modulus) as it is usually unknown and sensitive to printing parameters used (e.g. infill density), making the numerical simulation inaccurate. Consequently, the aim of this thesis is to present several work developed. The first is a preliminary investigation on the tensile and flexural response of Straight Beam Flexures (SBF) realized with MT printer and featuring different interlayer fiber volume-fraction and orientation, as well as different laminate position within the sample. The second is to develop a numerical analysis within the Carrera' s Unified Formulation (CUF) framework, based on component-wise (CW) approach, including a novel preprocessing tool that has been developed to account all regions printed in an easy and time efficient way. Among its benefits, the CUF-CW approach enables building an accurate database for collecting first natural frequencies modes results, then predicting Young' s modulus based on an inverse problem formulation. To validate the tool, the numerical results are compared to the experimental natural frequencies evaluated using a digital image correlation method. Further, we take the CUF-CW model and use static condensation to analyze smart structures which can be decomposed into a large number of similar components. Third, the potentiality of MT in combination with topology optimization and compliant joints design (CJD) is investigated for the realization of automated machinery mechanisms subjected to inertial loads.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dati i problemi di comprensione linguistica riscontrati dagli studenti cinesi nel contesto accademico e la crescente necessità della didattica dell’italiano L2 per fini di studio, il presente lavoro ha come obiettivo finale la creazione di letture graduate, proposte come materiali didattici comprensibili e mirati agli studenti cinesi di italiano L2, in modo da agevolare il loro approccio ai testi impegnativi richiesti per gli studi artistico-professionali. In particolare, nei primi due capitoli si discute il ruolo significativo della distanza linguistica tra italiano e cinese nell’acquisizione della L2 da parte degli studenti cinesi e nello sviluppo della loro abilità di lettura in L2. In seguito, per capire come debba essere un input ideale per l’acquisizione linguistica a fini di studio, vengono esaminati vari approcci glottodidattici basati sull’input, e si osservano i tratti delle varietà di italiano presenti nel contesto accademico. Il lavoro procede poi con un’analisi delle specifiche caratteristiche linguistiche riscontrate in manuali universitari di storia dell’arte, utilizzando sia un approccio quantitativo che qualitativo, con l’obiettivo di avere un “panorama” delle complessità linguistiche che uno studente L2 deve affrontare nello studio. Successivamente, verrà presentata una sperimentazione di riscrittura con due gruppi, i quali sono stati sottoposti rispettivamente al testo originale e a quello riscritto secondo i criteri formulati dallo studio teorico sul confronto tipologico. I risultati ottenuti confermano sia le interferenze del cinese nella lettura in italiano, sia l’efficacia degli approcci linguistici individuati nel facilitare la comprensibilità del testo per gli studenti cinesi di livello A2-B1. Di conseguenze, viene proposto un percorso di letture graduate per gli studenti cinesi di belle arti; oltre a essere comprensibili, le letture mirano anche all’acquisizione delle varietà di italiano necessarie per lo studio accademico-professionale. L’ultima parte del lavoro è dedicata alle riflessioni teoriche e didattiche sviluppate nel corso della ricerca.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le tecniche di fluidodinamica computazionale vengono utilizzate in numerosi settori dell’ingegneria per risolvere in modo efficiente i problemi di flusso e di termodinamica nei fluidi. Uno di questi settori in cui si è diffuso l’utilizzo delle tecniche CFD (Computational Fluid Dynamics) è il settore dell’ingegneria antincendio. Tra i vari software di simulazione presenti, FDS (Fire Dynamics Simulator) è quello più diffuso nella comunità antincendio e utilizzato all’interno della presente analisi. L’elaborato introduce le basi dell’ingegneria antincendio spiegando le varie fasi attraverso il quale passa la metodologia prestazionale, passando poi ad approfondire le dinamiche d’incendio, in particolare nelle gallerie stradali e le tecniche di modellazione termo fluidodinamica degli incendi. L’analisi tratta il confronto tra delle prove d’incendio in scala reale effettuate all’interno di una galleria e le relative simulazioni fluidodinamiche realizzate al fine di verificare la corrispondenza tra la modellazione con software e l’effettiva evoluzione dell’incendio. Nell’analisi verranno confrontati diversi metodi di modellazione, evidenziando i vantaggi e i limiti incontrati nel corso delle simulazioni, confrontandoli al tempo stesso con i risultati ottenuti dai test in scala reale. I modelli ottenuti hanno permesso di estendere le simulazioni a focolari di potenza maggiore al fine di effettuare un’analisi delle prestazioni antincendio della galleria oggetto di studio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nel seguente elaborato esponiamo la teoria delle matrici ricorsive, ovvero matrici doppiamente infinite in cui ogni riga può essere calcolata ricorsivamente dalla precedente e in particolare mostriamo come questa teoria possa essere utilizzata per ottenere una versione del calcolo umbrale, il quale è idoneo anche allo studio dei polinomi p(x) che assumono valori interi quando la variabile x è un intero. Studieremo alcuni dei risultati del calcolo umbrale come conseguenze delle due principali proprietà delle matrici ricorsive, ovvero la Regola del Prodotto e il Teorema della Doppia Ricorsione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

All’interno del panorama della nuova serialità televisiva contemporanea, la mia tesi propone un’analisi più approfondita del concetto di serialità complessa, con particolare attenzione agli elementi di complessità che caratterizzano il personaggio protagonista di questa forma di serialità televisiva. Successivamente, l’analisi si soffermerà sull’impatto di tali personaggi complessi sullo spettatore e sull’immedesimazione di quest’ultimo in individui che sempre più frequentemente si configurano come “antieroi”. Infine, l’ultimo capitolo consisterà nell’applicazione delle analisi precedenti attraverso il commento di alcune caratteristiche di complessità in comune a tre protagonisti di tre differenti serie tv, con esempi tratti direttamente dalla rappresentazione audiovisiva delle serie tv in questione (Sherlock, La regina degli scacchi e The end of the f***ing world).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quello che intendo studiare sono i più importanti interventi antimonopolio negli ultimi 20 anni, per quanto riguarda le grandi potenze del web ossia Amazon, Apple, Google, Microsoft e Facebook. In particolare approfondirò tutti gli interventi applicati negli Stati Uniti d’America e in Europa nelle varie fasi temporali, ovvero dalla nascita dei colossi della rete, fino ad arrivare al periodo prepandemia, considerando che quest’ultima ha rappresentato un evento durante il quale si sono verificati dei cambiamenti fondamentali che hanno richiesto da parte delle autorità, ulteriori e successivi interventi e controlli per evitare abusi di potere. Ai fini della ricerca sarà importante studiare le origini della regolamentazione antitrust, sia in USA che in Europa da un punto di vista storico. Di conseguenza questi giganti del web hanno avuto l’opportunità di affermare il proprio potere e a volte di abusarne tanto da intensificare le attenzioni dell’antitrust nei loro confronti. Di conseguenza le vicende saranno seguite quotidianamente per mantenere lo studio aggiornato. Si tratta infatti di un settore in continuo divenire, la cui analisi sarebbe priva di significato senza una costante attenzione verso i cambiamenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La struttura di questo progetto di tesi vuole ripercorrere le tappe della storia della cartografia del Rinascimento: prima, vestendo i panni del cartografo rinascimentale, usufruendo delle sue conoscenze legate alla praticità, e, successivamente, attraverso la lente del matematico dell’Ottocento. Questo testo tratterà solamente le cartografie che rappresentano il globo intero. In particolare, si analizzerà la mappa di Mercatore e la mappa di Waldseemüller, di cui si approfondirà anche la costruzione tramite riga e compasso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi abbiamo analizzato il non backtracking PageRank, un algoritmo di classificazione variante del PageRank che non considera il backtracking, cioè i cammini che tornano nel nodo da cui sono partiti al passo subito successivo. Lo scopo di questa variante è ottenere una classificazione migliore in tutti quei problemi in cui il backtracking viene evitato. Siamo partiti introducendo il PageRank standard, per poi spiegare nel dettaglio il non backtracking PageRank e quali fossero le analogie e differenze tra i due. Ci siamo poi chiesti come risolvere computazionalmente il problema, studiando il risolutore di sistemi lineari GMRES e facendo delle osservazioni su come si possano ridurre il numero di iterazioni e il tempo di calcolo tramite il precondizionamento. Infine, abbiamo eseguito degli esperimenti sulle reti stradali di alcune città e confrontato i risultati ottenuti tramite le diverse classificazioni.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Per funzioni di matrice intendiamo generalizzazioni di funzioni scalari che permettono di valutare tali funzioni anche per matrici. Esistono numerosi esempi notevoli di funzioni di matrice: tra queste la funzione esponenziale, la radice quadrata e il segno. Quest'ultima è particolarmente utile per la risoluzione di particolari equazioni matriciali come ad esempio le equazioni di Sylvester e le equazioni di Riccati. In questo elaborato introdurremo il concetto di funzione di matrice per poi soffermarci proprio sulla funzione segno. Oltre che a fornire tutte le definizioni necessarie e analizzare le proprietà che ci aiuteranno a comprendere meglio questa funzione, ci interesseremo all'implementazione di algoritmi che possano calcolare o approssimare la funzione segno di matrice. Un primo metodo sfrutterà la decomposizione di Schur: supponendo di conoscere la decomposizione della matrice, e di trovarci in algebra esatta, questo metodo non fornirà un'approssimazione del segno della suddetta matrice ma l'esatto segno della stessa. Il secondo metodo che studieremo si può definire più come una famiglia di metodi. Vedremo infatti tre algoritmi diversi che però sfruttano tutti l'iterazione di Newton, opportunamente adattata al caso matriciale: il metodo di base, convergente globalmente, in cui applicheremo semplicemente questa iterazione, ed altri due che mireranno a risolvere problemi distinti del metodo di base, ovvero il numero di iterazioni necessarie per giungere alla convergenza (introducendo il concetto di riscaling) e l'alto costo computazionale (sacrificando però la convergenza globale). Grazie all'aiuto di Matlab analizzeremo più nello specifico l'efficienza dei vari algoritmi descritti, ed infine vedremo più nello specifico come utilizzare la funzione segno di matrice per risolvere le equazioni algebriche di Sylvester e di Riccati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’oggetto di questo elaborato è lo studio computazionale, a livello della teoria del funzionale della densità (DFT) e della sua formulazione dipendente dal tempo (TD-DFT), dei dimeri della molecola di rodamina-B, parallelo allo sviluppo di una procedura di tuning ottimale del funzionale CAM-B3LYP. Questa molecola, che assume notevole rilevanza nei sistemi light harvesting grazie alle sue proprietà fotochimiche di emissione nel visibile, è impiegata nella sintesi di nanoparticelle (NPs) fluorescenti in ambito di diagnostica medica e bio-imaging, che sfruttano il fenomeno di trasferimento di energia per risonanza (FRET). Per via della notevole importanza che questa molecola riveste nell’ambito della fotochimica, essa è stata oggetto di esperimenti del gruppo di ricerca del laboratorio di biofotonica e farmacologia “Nanochemistry and Bioimaging”, che collabora con il gruppo di chimica computazionale dell’area chimico/fisica del Dipartimento. La dimerizzazione della rodamina all’interno delle NPs può innescare canali di self-quenching che abbassano la resa quantica di fluorescenza, pregiudicando l’efficienza dei dispositivi: l’obiettivo dello studio è la caratterizzazione dei dimeri, in solventi e con controioni diversi, impiegando dei modelli molecolari, per identificarne le specie più stabili e descrivere la fotofisica degli stati elettronici eccitati. Il carattere generalmente charge-transfer (CT) di questi stati elettronici richiede un “tuning ottimale” della metodologia computazionale DFT/TD-DFT per una descrizione quantitativa accurata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo elaborato vengono analizzate differenti tecniche per la detection di jammer attivi e costanti in una comunicazione satellitare in uplink. Osservando un numero limitato di campioni ricevuti si vuole identificare la presenza di un jammer. A tal fine sono stati implementati i seguenti classificatori binari: support vector machine (SVM), multilayer perceptron (MLP), spectrum guarding e autoencoder. Questi algoritmi di apprendimento automatico dipendono dalle features che ricevono in ingresso, per questo motivo è stata posta particolare attenzione alla loro scelta. A tal fine, sono state confrontate le accuratezze ottenute dai detector addestrati utilizzando differenti tipologie di informazione come: i segnali grezzi nel tempo, le statistical features, le trasformate wavelet e lo spettro ciclico. I pattern prodotti dall’estrazione di queste features dai segnali satellitari possono avere dimensioni elevate, quindi, prima della detection, vengono utilizzati i seguenti algoritmi per la riduzione della dimensionalità: principal component analysis (PCA) e linear discriminant analysis (LDA). Lo scopo di tale processo non è quello di eliminare le features meno rilevanti, ma combinarle in modo da preservare al massimo l’informazione, evitando problemi di overfitting e underfitting. Le simulazioni numeriche effettuate hanno evidenziato come lo spettro ciclico sia in grado di fornire le features migliori per la detection producendo però pattern di dimensioni elevate, per questo motivo è stato necessario l’utilizzo di algoritmi di riduzione della dimensionalità. In particolare, l'algoritmo PCA è stato in grado di estrarre delle informazioni migliori rispetto a LDA, le cui accuratezze risentivano troppo del tipo di jammer utilizzato nella fase di addestramento. Infine, l’algoritmo che ha fornito le prestazioni migliori è stato il Multilayer Perceptron che ha richiesto tempi di addestramento contenuti e dei valori di accuratezza elevati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’elaborato descrive le fasi di progettazione, programmazione e validazione di un programma sviluppato in ambiente Java per il Vehicle Routing Problem. L’algoritmo implementato è di tipo euristico costruttivo primal e presenta funzionalità specifiche per la gestione di un elevato numero di vincoli e l’applicazione a casistiche reali. La validazione è stata effettuata su una base dati reale e in confronto a dataset di cui è nota la soluzione ottima. Il programma è stato progettato per risultare flessibile alle richieste dell’utente e utilizzabile per valutazioni economiche in ambito consulenziale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il mercato azionario è sempre stato caso di studio, soprattutto per la sua complessità, e la difficolta di predirne il comportamento. I fattori in gioco sono davvero tanti, dalla politica ai problemi aziendali stessi. Pur sapendo che il mondo finanziario è un mondo complicato, permette però possibilità di guadagno elevate. Nel documento vengono descritti alcuni approcci utilizzati per eseguire delle predizioni, dai metodi più classici come la regressione, fino all'utilizzo di reti neurali. Vengono infatti descritti tre modelli che sfruttano le caratteristiche della LSTM, e un modello che sfrutta l'architettura Transformer, proposto recentemente,

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uno degli obiettivi più ambizioni e interessanti dell'informatica, specialmente nel campo dell'intelligenza artificiale, consiste nel raggiungere la capacità di far ragionare un computer in modo simile a come farebbe un essere umano. I più recenti successi nell'ambito delle reti neurali profonde, specialmente nel campo dell'elaborazione del testo in linguaggio naturale, hanno incentivato lo studio di nuove tecniche per affrontare tale problema, a cominciare dal ragionamento deduttivo, la forma più semplice e lineare di ragionamento logico. La domanda fondamentale alla base di questa tesi è infatti la seguente: in che modo una rete neurale basata sull'architettura Transformer può essere impiegata per avanzare lo stato dell'arte nell'ambito del ragionamento deduttivo in linguaggio naturale? Nella prima parte di questo lavoro presento uno studio approfondito di alcune tecnologie recenti che hanno affrontato questo problema con intuizioni vincenti. Da questa analisi emerge come particolarmente efficace l'integrazione delle reti neurali con tecniche simboliche più tradizionali. Nella seconda parte propongo un focus sull'architettura ProofWriter, che ha il pregio di essere relativamente semplice e intuitiva pur presentando prestazioni in linea con quelle dei concorrenti. Questo approfondimento mette in luce la capacità dei modelli T5, con il supporto del framework HuggingFace, di produrre più risposte alternative, tra cui è poi possibile cercare esternamente quella corretta. Nella terza e ultima parte fornisco un prototipo che mostra come si può impiegare tale tecnica per arricchire i sistemi tipo ProofWriter con approcci simbolici basati su nozioni linguistiche, conoscenze specifiche sul dominio applicativo o semplice buonsenso. Ciò che ne risulta è un significativo miglioramento dell'accuratezza rispetto al ProofWriter originale, ma soprattutto la dimostrazione che è possibile sfruttare tale capacità dei modelli T5 per migliorarne le prestazioni.