1000 resultados para modelli istereticiopensees


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fronte dei numerosi eventi di perdita di servizio o crolli di ponti degli ultimi anni, il loro adeguamento e/o miglioramento è divenuto prioritario. Con questo spirito si è posta l’attenzione sui ponti Gerber, descrivendo dapprima le ragioni tecniche e storiche del loro sviluppo, i problemi di degrado, ed infine i modelli disponibili per il calcolo della portanza delle selle. Consapevoli della ridotta durabilità di queste opere, e del fatto che le cerniere Gerber sono state ufficialmente classificate come punti critici da attenzionare ai sensi delle nuove “Linee guida per la classificazione e gestione del rischio, la valutazione della sicurezza ed il monitoraggio dei ponti esistenti” del 2020, sono stati approfonditi due scenari tipici di intervento su casi reali di ponti che presentassero giunti Gerber particolarmente ammalorati. La soluzione più conservativa e meno invasiva prevede il mantenimento in essere delle selle e si basa sul by-pass dei giunti stessi ottenuto attraverso il meccanismo “leva” che si instaura in un sistema di travi metalliche posto a sostegno delle travi d’impalcato. Quella di solidarizzare le travi rendendo il sistema iperstatico è invece la seconda soluzione analizzata. La chiusura delle selle consente di ottenere gli effetti benefici propri delle strutture iperstatiche, a spese comunque della nascita di sollecitazioni all’interno della trave originariamente compresa tra le cerniere. Si è infine accennato a ipotesi di miglioramento sismico dell’opera, trattato con la cucitura delle selle Gerber stesse, che hanno consentito all’impalcato di avere un comportamento monolitico. Il presente elaborato costituisce dunque un punto d’incontro tra i modelli teorici con cui si studiano i degradi e la capacità portante residua delle selle, e le soluzioni progettuali di intervento effettivamente utilizzate e disponibili per la messa in sicurezza di ponti con caratteristiche simili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il passaggio dalla concezione delle forze come azioni a distanza a quella che le vede come azioni che avvengono per contatto, attraverso un mezzo descrivibile con una teoria di campo, costituisce un punto di svolta importante nell'evoluzione della fisica. Da un'analisi storica e filosofica, emerge una molteplicità di aspetti che hanno contribuito a questo cambiamento. Rivestono un ruolo importante le concezioni filosofiche che caratterizzano un periodo storico, gli strumenti matematici, i modelli e le analogie. Questa molteplicità rende il passaggio da un paradigma newtoniano a uno maxwelliano un tema significativo per la didattica. L'obiettivo di questo lavoro di tesi è quello di costruire un percorso didattico indirizzato agli studenti del quarto anno di Liceo Scientifico attraverso i concetti principali dell'elettrostatica, vista come punto di congiunzione tra diversi paradigmi concettuali e tra differenti metodi di rappresentazione matematica. Le ricerche sull'uso della storia della fisica come mezzo per la didattica mettono in luce il parallelismo tra i profili concettuali degli studenti di diverse età con i profili newtoniano e maxwelliano, e attribuiscono le difficoltà nel passaggio da un profilo a un altro a una didattica che non evidenzia la necessità di questo cambiamento. Attraverso un'analisi storica dello sviluppo dell'elettrostatica ho dunque identificato alcuni punti significativi per favorire il cambiamento concettuale, dai quali sono partita per costruire un percorso che si compone di 3 unità in cui sono rese esplicite le motivazioni che portano da un'azione a distanza al concetto di campo e di azione tramite un mezzo. I concetti dell'elettrostatica vengono così trattati attraverso una molteplicità di rappresentazioni e facendo uso di analogie tratte dalla storia della fisica, in maniera coerente con le indicazioni Nazionali per i Licei Scientifici e con le ricerche sulla didattica della fisica che riguardano i diversi aspetti toccati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, a causa della crescente tendenza verso i Big Data, l’apprendimento automatico è diventato un approccio di previsione fondamentale perché può prevedere i prezzi delle case in modo accurato in base agli attributi delle abitazioni. In questo elaborato, verranno messe in pratica alcune tecniche di machine learning con l’obiettivo di effettuare previsioni sui prezzi delle abitazioni. Ad esempio, si può pensare all’acquisto di una nuova casa, saranno tanti i fattori di cui si dovrà preoccuparsi, la posizione, i metri quadrati, l’inquinamento dell’aria, il numero di stanze, il numero dei bagni e così via. Tutti questi fattori possono influire in modo più o meno pesante sul prezzo di quell’abitazione. E’ proprio in casi come questi che può essere applicata l’intelligenza artificiale, nello specifico il machine learning, per riuscire a trovare un modello che approssimi nel miglior modo un prezzo, data una serie di caratteristiche. In questa tesi verrà dimostrato come è possibile utilizzare l’apprendimento automatico per effettuare delle stime il più preciso possibile dei prezzi delle case. La tesi è divisa in 5 capitoli, nel primo capitolo verranno introdotti i concetti di base su cui si basa l’elaborato e alcune spiegazioni dei singoli modelli. Nel secondo capitolo, invece, viene trattato l’ambiente di lavoro utilizzato, il linguaggio e le relative librerie utilizzate. Il terzo capitolo contiene un’analisi esplorativa sul dataset utilizzato e vengono effettuate delle operazioni per preparare i dati agli algoritmi che verranno applicati in seguito. Nel capitolo 4 vengono creati i diversi modelli ed effettuate le previsioni sui prezzi mentre nel capitolo 5 vengono analizzati i risultati ottenuti e riportate le conclusioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’argomento di questa tesi nasce dall’idea di unire due temi che stanno assumendo sempre più importanza nei nostri giorni, ovvero l’economia circolare e i big data, e ha come obiettivo quello di fornire dei punti di collegamento tra questi due. In un mondo tecnologico come quello di oggi, che sta trasformando tutto quello che abbiamo tra le nostre mani in digitale, si stanno svolgendo sempre più studi per capire come la sostenibilità possa essere supportata dalle tecnologie emergenti. L’economia circolare costituisce un nuovo paradigma economico in grado di sostituirsi a modelli di crescita incentrati su una visione lineare, puntando ad una riduzione degli sprechi e ad un radicale ripensamento nella concezione dei prodotti e nel loro uso nel tempo. In questa transizione verso un’economia circolare può essere utile considerare di assumere le nuove tecnologie emergenti per semplificare i processi di produzione e attuare politiche più sostenibili, che stanno diventando sempre più apprezzate anche dai consumatori. Il tutto verrà sostenuto dall’utilizzo sempre più significativo dei big data, ovvero di grandi dati ricchi di informazioni che permettono, tramite un’attenta analisi, di sviluppare piani di produzione che seguono il paradigma circolare: questo viene attuato grazie ai nuovi sistemi digitali sempre più innovativi e alle figure specializzate che acquisiscono sempre più conoscenze in questo campo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo principale di questo elaborato di tesi è poter fornire degli strumenti per il progetto concettuale di un dirigibile non-rigido e per valutare la fattibilità del trasporto di idrogeno gassoso. L’innovazione rispetto ai dirigibili utilizzati fino ad ora risiede nell’utilizzo di idrogeno sia come fonte di energia, che come gas di sollevamento; entrambi gli utilizzi verranno approfonditi con speciale attenzione alle problematiche legate alla sicurezza, fattore che ha interrotto l’uso dell’idrogeno come gas di sollevamento dagli anni ‘30. Oltre a ciò, verrà illustrato un breve confronto tra i due gas di sollevamento più utilizzati: elio ed idrogeno. Dopo un accenno storico, l’elaborato propone una metodologia per il dimensionamento di un dirigibile non-rigido, utilizzando strumenti matematici derivanti da modelli presenti in bibliografia e da considerazioni ed esperimenti svolti dai progettisti e dai ricercatori nei campi principali coinvolti nella progettazione dei dirigibili non-rigidi: aerodinamica, aerostatica, propulsione e stima delle masse. La progettazione di un dirigibile non-rigido ad idrogeno sicuro ed affidabile è influenzata dallo sviluppo di materiali che garantiscano, in primis, resistenza e bassa permeabilità: verrà presentato uno schema di un materiale composito laminato che potrebbe garantire requisiti di sicurezza superiori ai materiali utilizzati in passato, dei quali si farà un accenno. Alla fine dell’elaborato sarà presentato un caso di studio dove verranno utilizzati gli strumenti illustrati nella prima parte della tesi, con l’obbiettivo finale di dimensionare un dirigibile non-rigido ad idrogeno. Per questo caso di studio è stato implementato un breve codice MATLAB. A conclusione di questo lavoro di tesi si può dire che la fattibilità di un dirigibile per trasporto idrogeno dipende dallo sviluppo di materiali e tecniche adeguate alla gestione dell’idrogeno che costituisce enormi problematiche a livello di sicurezza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si ispira a lavori precedentemente portati avanti da altri studenti e si pone il problema della possibilit\`a di riconoscere se uno smartphone \`e utilizzato da un utente mentre esso si trova alla guida di un'autovettura. In essa verranno presentati vari metodi per risolvere questo problema di Machine Learning, ovvero realizzazione di dataset per l'allenamento di modelli e creazione e allenamento di modelli stessi, dediti al riconoscimento di un problema di classificazione binaria e riconoscimento di oggetti tramite Object Detection. Il cercare di riconoscere se l'utente \`e alla guida o meno, avverr\`a tramite l'output della fotocamera frontale dello smartphone, quindi lavoreremo su immagini, video e frame. Arriveremo a riconoscere la posizione della persona rappresentata da questi fotogrammi tramite un modello di Object Detection, che riconosce cintura e finestrino e determina se sono appartenenti al sedile e alla posizione del conducente o del passeggero. Vedremo alla fine, attraverso un'attenta analisi dei risultati ottenuti su ben 8 video diversi che saranno divisi in molti frame, che si ottengono risultati molto interessanti, dai quali si pu\`o prendere spunto per la creazione di un importante sistema di sicurezza alla guida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di aggregare ed elaborare tutti i dati che sono stati generati durante lo svolgimento del progetto del corso di Ingegneria del Software presso la facoltà di Informatica dell’Università di Bologna nell’Anno Accademico 2021/2022. In particolare saranno elaborati i dati provenienti da un questionario rivolto a tutti i partecipanti e dall’ambiente CAS (Compositional Agile System). Al progetto hanno partecipato 79 studenti, suddivisi in 16 team. La dissertazione consisterà nell’applicazione di un modello di qualità del teamwork e uno di maturità, seguendo il metodo adottato da Sofia Zani nella sua tesi lo scorso anno. Alla fine saranno analizzati tutti gli aspetti presi in considerazione e sarà ricercata una correlazione tra i due modelli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggigiorno il concetto di informazione è diventato cruciale in fisica, pertanto, siccome la migliore teoria che abbiamo per compiere predizioni riguardo l'universo è la meccanica quantistica, assume una particolare importanza lo sviluppo di una versione quantistica della teoria dell'informazione. Questa centralità è confermata dal fatto che i buchi neri hanno entropia. Per questo motivo, in questo lavoro sono presentati elementi di teoria dell'informazione quantistica e della comunicazione quantistica e alcuni sono illustrati riferendosi a modelli quantistici altamente idealizzati della meccanica di buco nero. In particolare, nel primo capitolo sono forniti tutti gli strumenti quanto-meccanici per la teoria dell'informazione e della comunicazione quantistica. Successivamente, viene affrontata la teoria dell'informazione quantistica e viene trovato il limite di Bekenstein alla quantità di informazione chiudibile entro una qualunque regione spaziale. Tale questione viene trattata utilizzando un modello quantistico idealizzato della meccanica di buco nero supportato dalla termodinamica. Nell'ultimo capitolo, viene esaminato il problema di trovare un tasso raggiungibile per la comunicazione quantistica facendo nuovamente uso di un modello quantistico idealizzato di un buco nero, al fine di illustrare elementi della teoria. Infine, un breve sommario della fisica dei buchi neri è fornito in appendice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La seguente tesi studia il processo γγ → WW osservato per la prima volta dall’esperimento ATLAS nel 2017 facendo collidere due fasci di protoni con un’energia totale di 13 GeV. Grazie all’analisi dell’evento (in un dominio da 0 a 500 GeV in momento trasverso) è possibile misurare il valore (o trovare l’intervallo di confidenza) di determinati coefficienti associati alla lagrangiana in EFT. Si pensa infatti che questo evento, reso possibile anche dalla lagrangiana del Modello Standard, possa avvenire sfruttando teorie oltre il Modello Standard sull’accoppiamento quartico tra bosoni vettori, identificati da operatori di dimensione otto. Lo scopo ultimo dell’analisi è quello di trovare l’intervallo di confidenza all’interno del quale ci si aspetta di trovare questi coefficienti (associati agli operatori di dimensione otto), con livello di confidenza del 95%. Tali misurazioni sono estremamente importanti per la fisica teorica in quanto permettono di verificare la veridicità dei modelli teorici e accertarsi che questi ultimi siano compatibili con i dati. Lo scopo di questa tesi é antecedente alla misurazione e consiste, grazie alle simulazioni, nell’applicare dei processi di selezione e restringere il dominio delle distribuzioni dei dati (in momento trasverso), così da ottimizzare le misurazioni. E' stato trovato infatti che se si restringe il dominio del momento trasverso si riesce a misurare un più ampio e accurato range di valori per i coefficienti di EFT. Nello specifico questa tesi si é occupata di studiare alcuni di questi coefficienti (M), trovando la miglior regione per l’analisi ([180,500] GeV) e, per ogni coefficiente, il limite inferiore con un C.L. del 95%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo sviluppo della robotica collaborativa, in particolare nelle applicazioni di processi industriali in cui sono richieste la flessibilità decisionale di un utilizzatore umano e le prestazioni di forza e precisione garantite dal robot, pone continue sfide per il miglioramento della capacità di progettare e controllare al meglio questi apparati, rendendoli sempre più accessibili in termini economici e di fruibilità. Questo cambio di paradigma rispetto ai tradizionali robot industriali, verso la condivisone attiva degli ambienti di lavoro tra uomo e macchina, ha accelerato lo sviluppo di nuove soluzioni per rendere possibile l’impiego di robot che possano interagire con un ambiente in continua mutazione, in piena sicurezza. Una possibile soluzione, ancora non diffusa commercialmente, ma largamente presente in letteratura, è rappresentata dagli attuatori elastici. Tra gli attuatori elastici, l’architettura che ad oggi ha destato maggior interesse è quella seriale, in cui l’elemento cedevole viene posto tra l’uscita del riduttore ed il carico. La bibliografia mostra come alcuni limiti della architettura seriale possano essere superati a parità di proprietà dinamiche. La soluzione più promettente è l’architettura differenziale, che si caratterizza per l’utilizzo di riduttori ad un ingresso e due uscite. I vantaggi mostrati dai primi risultati scientifici evidenziano l’ottenimento di modelli dinamici ideali paragonabili alla più nota architettura seriale, superandola in compattezza ed in particolare semplificando l’installazione dei sensori necessari al controllo. In questa tesi viene effettuata un’analisi dinamica preliminare ed uno studio dell’attitudine del dispositivo ad essere utilizzato in contesto collaborativo. Una volta terminata questa fase, si presenta il design e la progettazione di un prototipo, con particolare enfasi sulla scelta di componenti commerciali ed il loro dimensionamento, oltre alla definizione della architettura costruttiva complessiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La crescente disponibilità di scanner 3D ha reso più semplice l’acquisizione di modelli 3D dall’ambiente. A causa delle inevitabili imperfezioni ed errori che possono avvenire durante la fase di scansione, i modelli acquisiti possono risultare a volte inutilizzabili ed affetti da rumore. Le tecniche di denoising hanno come obiettivo quello di rimuovere dalla superficie della mesh 3D scannerizzata i disturbi provocati dal rumore, ristabilendo le caratteristiche originali della superficie senza introdurre false informazioni. Per risolvere questo problema, un approccio innovativo è quello di utilizzare il Geometric Deep Learning per addestrare una Rete Neurale in maniera da renderla in grado di eseguire efficacemente il denoising di mesh. L’obiettivo di questa tesi è descrivere il Geometric Deep Learning nell’ambito del problema sotto esame.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oggetto di questo elaborato è lo studio computazionale, a livello della teoria del funzionale della densità (DFT) e della sua formulazione dipendente dal tempo (TD-DFT), dei dimeri della molecola di rodamina-B, parallelo allo sviluppo di una procedura di tuning ottimale del funzionale CAM-B3LYP. Questa molecola, che assume notevole rilevanza nei sistemi light harvesting grazie alle sue proprietà fotochimiche di emissione nel visibile, è impiegata nella sintesi di nanoparticelle (NPs) fluorescenti in ambito di diagnostica medica e bio-imaging, che sfruttano il fenomeno di trasferimento di energia per risonanza (FRET). Per via della notevole importanza che questa molecola riveste nell’ambito della fotochimica, essa è stata oggetto di esperimenti del gruppo di ricerca del laboratorio di biofotonica e farmacologia “Nanochemistry and Bioimaging”, che collabora con il gruppo di chimica computazionale dell’area chimico/fisica del Dipartimento. La dimerizzazione della rodamina all’interno delle NPs può innescare canali di self-quenching che abbassano la resa quantica di fluorescenza, pregiudicando l’efficienza dei dispositivi: l’obiettivo dello studio è la caratterizzazione dei dimeri, in solventi e con controioni diversi, impiegando dei modelli molecolari, per identificarne le specie più stabili e descrivere la fotofisica degli stati elettronici eccitati. Il carattere generalmente charge-transfer (CT) di questi stati elettronici richiede un “tuning ottimale” della metodologia computazionale DFT/TD-DFT per una descrizione quantitativa accurata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, la ricerca scientifica nell’ambito delle neuroscienze cognitive ha sempre più focalizzato il suo interesse nei confronti dei ritmi cerebrali, ovvero oscillazioni neurali registrabili attraverso tecniche di elettrocenfalografia. In questo lavoro si è investigato il ruolo del ritmo alpha (7-12 Hz) e, in seconda misura, del ritmo gamma (> 30 Hz) rispetto all’attenzione spaziale selettiva. In particolare, partendo da modelli di massa neurale esistenti, si è riusciti a sviluppare un nuovo modello che riesce a simulare un compito di attenzione spaziale sulla base dell’inibition timing hypothesis, che assegna alle onde alpha un ruolo essenziale al fine di trascurare gli stimoli non rilevanti rispetto al compito da svolgere. Successivamente, è stato indagato l’effetto sul modello di alcune degenerazioni neurali tipiche di una delle patologie maggiormente invalidanti, la schizofrenia. Nello specifico, sulla base di evidenze sperimentali che riportano un calo della potenza delle onde gamma nei soggetti schizofrenici a causa della degenerazione degli interneuroni inibitori con dinamica sinaptica veloce, si è riusciti a simulare la progressiva alterazione neurale indotta dalla schizofrenia in termini di incapacità di inibire gli stimoli interferenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato si propone di studiare una soluzione ottimale per il dimensionamento di lotti economici di produzione nel settore lavorazioni meccaniche: il caso è stato studiato presso l’azienda Bonfiglioli Riduttori S.p.A all’interno del plant EVO, situato a Calderara di Reno (BO). Bonfiglioli Riduttori S.p.A è un’azienda che opera a livello globale occupandosi dell’intero ciclo di progettazione, produzione e distribuzione di una gamma completa di motoriduttori, dispositivi di azionamento, riduttori epicicloidali ed inverter. Il plant EVO è composto da due aree, produzione e assemblaggio, tra i quali è presente un magazzino che funge da buffer interoperazionale, contenente tutti i componenti necessari per il montaggio dei riduttori. L’obiettivo che ci si è posti è stato quello di trovare il lotto economico di produzione che fosse in grado di minimizzare i costi di gestione delle scorte ed i costi di set up della produzione, garantendo che non vi fossero rotture di stock, ossia mancanza di materiale con corrispondenti fermi macchina nel reparto assemblaggio. Ci si è concentrati sul ciclo di lavoro di uno dei componenti principali del riduttore, le corone in acciaio, e sono stati analizzati i seguenti modelli: i modelli di gestione tradizionale delle scorte, quali il modello del Lotto Economico di Acquisto (EOQ) ed il modello del Lotto Economico di Produzione (EMQ) ed il modello di gestione integrata delle scorte, noto come Consignment Stock. Studiando i risultati ottenuti è emerso che la soluzione ideale che verrà implementata a partire dai prossimi mesi è quella ibrida, ossia per i codici caratterizzati da bassi volumi si procede con i lotti calcolati attraverso il Consignment stock, caratterizzati da lotti con volumi elevati che comportano pochi set up, mentre per i codici alto rotanti si è cercato di aumentare il più possibile il numero di set up per abbassare il volume di ogni lotto e di conseguenza i costi di giacenza a magazzino.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.