994 resultados para probabilità condizionata scuola secondaria secondo grado
Resumo:
L’attività di tesi è stata rivolta allo sviluppo e messa a punto del trattamento termico di austempering per un acciaio ad alto contenuto di Si. Scopo della ricerca è stato valutare la possibilità di effettuare il trattamento termico secondo metodiche industriali analoghe a quelle utilizzate per il trattamento delle ghise sferoidali austemperate (ADI). Si sono studiati in particolare gli effetti dei tempi e delle temperature del trattamento sulle microstrutture e le proprietà meccaniche dell'acciaio. I risultati della sperimentazione e delle analisi hanno permesso di definire i parametri ottimali del processo di austempering, al fine di ottenere una microstruttura ausferritica in grado di garantire al contempo elevata resistenza e buona tenacità e duttilità.
Resumo:
Lo scopo di questa tesi è lo studio della risolubilità per radicali di equazioni polinomiali nel caso in cui il campo dei coefficienti del polinomio abbia caratteristica zero. Nel primo capitolo vengono richiamati i principali risultati riguardanti la teoria di Galois. Nel secondo capitolo si introducono le nozioni di gruppo risolubile e gruppo semplice analizzandone le proprietà. Nel terzo capitolo si definiscono le estensioni di campi radicali e risolubili. Viene inoltre dimostrato il teorema di Galois che mette in evidenza il legame tra gruppi risolubili ed estensioni risolubili. Infine, nell'ultimo capitolo, si applicano i risultati ottenuti al problema della risolubilità per radicali delle equazioni polinomiali dando anche diversi esempi. In particolare viene analizzato il caso del polinomio universale di grado n.
Resumo:
Nella presente tesi si esamina il grado topologico in spazi di dimensione finita nonché in spazi di dimensione infinita. La trattazione si focalizza sulla proprietà di invarianza per omotopia e teoremi di punto fisso, con relativa applicazione ad equazioni differenziali che ammettono soluzioni periodiche.
Resumo:
La teoria dell'inflazione risolve alcuni problemi fondamentali posti dalla teoria standard dell'origine dell'universo, in particolare chiarisce perché l'universo è piatto e omogeneo quando secondo la cosmologia standard non lo dovrebbe essere (o meglio: lo potrebbe essere solo con probabilità molto bassa). Inoltre la teoria dell'inflazione spiega l'origine delle anisotropie della radiazione cosmica di fondo e in tal modo l'inflazione è responsabile anche dell'origine della struttura a grande scala dell'universo. La teoria inflazionaria presenta la possibilità di una conferma sperimentale. Alcune sue predizioni sono già state verificate e una forte prova era sembrata venire dall'esperimento BICEP2, ma per ora (novembre 2014) non c'è stata una conferma. Nello specifico, l'esperimento BICEP2 aveva dichiarato a marzo 2014 di aver rilevato nella radiazione cosmica di fondo il segnale di onde gravitazionali che potevano essere state provocate soltanto dall'inflazione. La presente tesi descrive gli aspetti classici (non quantistici) della teoria dell'inflazione, riporta i risultati relativi alla trattazione quantistica delle perturbazioni della radiazione cosmica di fondo e illustra la questione delle verifiche sperimentali della teoria dell'inflazione, dedicando particolare rilievo al recente esperimento BICEP2.
Resumo:
Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.
Resumo:
Lo scopo di questa tesi è presentare un progetto per la realizzazione di una piattaforma DBAAS per il database Jackrabbit. Per piattaforma DBAAS si intende un sistema in grado di offrire ai clienti un database su richiesta (DataBase As A Service), e di amministrare automaticamente i database per conto dei clienti. Il progetto viene realizzato in un primo momento tramite un prototipo della piattaforma, in cui vengono effettuati test intensivi per controllare ogni funzionalità della piattaforma. Il prototipo viene sviluppato in un singolo host, nel quale è possibile simulare tutte le operazioni base della piattaforma DBAAS, come se fosse il sistema finale. In un secondo momento, il progetto sarà realizzato nella sua versione finale, con tutto l'hardware necessario a garantire un servizio ottimale. Questa tesi contiene la base per realizzare il sistema finale, che può essere realizzato in modi diversi a seconda delle scelte che farà il progettista. Ad esempio, è possibile comprare tutto l'hardware necessario e implementare la piattaforma DBAAS in-house, oppure si può scegliere di affidare tutta la gestione hardware ad un servizio di hosting.
Resumo:
Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.
Resumo:
In questa tesi viene seguito il lavoro di test delle schede ROD del layer 2 del Pixel Detector dell’ esperimento ATLAS, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Le schede ROD andranno a sostituire le precedenti schede SiROD nella catena di acquisizione dati dell’esperimento, procedendo dal nuovo strato IBL, e proseguendo con i tre layer del Pixel Detector, corroborando l’aggiornamento tecnologico e prestazionale necessario in vista dell’incremento di luminosità dell’esperimento.
Resumo:
Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.
Resumo:
Lo studio della memoria semantica attraverso modelli teorici (qualitativi o matematici) gioca un ruolo importante nelle neuroscienze cognitive. In questa tesi viene presentato un modello della memoria semantica e lessicale. Il principio alla base del modello è che la semantica di un oggetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione dell’oggetto nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate del cervello, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è indagare i meccanismi che portano alla formazione di categorie, analizzare il ruolo delle diverse proprietà nella costruzione di un concetto e le connessioni tra queste proprietà e la parola corrispondente al nome dell’oggetto. Durante l’addestramento per ogni oggetto sono presentate alcune proprietà in input, con una data frequenza: alcune sono condivise, cioè appartengono a più di un concetto e permettono la formazione di categorie, altre sono distintive, cioè sono tipiche di un concetto e consentono la rappresentazione dei membri di una categoria. Un ulteriore aspetto riguardante le proprietà è la distinzione fra proprietà salienti, che sono spontaneamente evocate, e proprietà marginali. E’ stata utilizzata una tassonomia composta da 11 parole che identificano 11 animali. La salienza è stabilita dalla frequenza con cui si verifica ciascuna proprietà. La distinzione tra proprietà condivise e distintive, e tra proprietà salienti e non salienti, è stata ottenuta mediante l’uso della regola di Hebb con una diversa soglia presinaptica e postsinaptica, producendo patterns di sinapsi asimmetriche all’interno della rete semantica (auto-associazione) e tra la rete semantica e lessicale (etero-associazione). La rete addestrata è in grado di risolvere compiti di riconoscimento e denominazione di oggetti, mantenendo una distinzione tra le categorie e i suoi membri, e fornendo un diverso ruolo per le proprietà salienti rispetto alle proprietà marginali.
Resumo:
Il paradigma “Software-Defined Networking” (SDN) ha suscitato recentemente interesse grazie allo sviluppo e all'implementazione di uno standard tecnologico come OpenFlow. Con il modello SDN viene proposta una rete programmabile tramite la separazione dell’unità di controllo e l'unità di instradamento, rendendo quindi i nodi di rete (come ad es. router o switch) esclusivamente hardware che inoltra pacchetti di dati secondo le regole dettate dal controller. OpenFlow rappresenta lo standard dominante nella tecnologia SDN in grado di far comunicare l'unità controller e l'hardware di uno o più nodi di rete. L'utilizzo di OpenFlow consente maggiore dinamicità e agevolazione nella personalizzazione della rete attraverso un'interfaccia utente, includendo svariate funzioni quali la modifica e l’automatizzazione delle regole di instradamento, la creazione di una rete virtuale dotata di nodi logici o la possibilità di monitorare il traffico accrescendo la sicurezza della propria rete.
Resumo:
Negli ultimi anni, studi scientifici hanno evidenziato come il nostro sistema nervoso abbia la capacità di combinare e integrare informazioni di diversa natura sensoriale. Una interazione ampiamente studiata è quella audiovisiva. Oggetto principale di questa tesi è un esempio di interazione audiovisiva, ovvero un fenomeno illusorio visivo indotto dal suono che prende il nome “sound-induced flash illusion”: quando una coppia flash+beep è preceduta o seguita - ad una distanza temporale detta Stimulus Onset Asynchorny (SOA) - da un secondo beep, i soggetti spesso riportano la percezione di aver visto due flash. Il fenomeno illusorio tende a svanire al crescere dell’SOA, e si definisce “finestra temporale d’integrazione” l’intervallo di valori di SOA all’interno del quale si verifica l’illusione. Il fenomeno illusorio è presente anche nei soggetti autistici; questi, rispetto ai soggetti sani, presentano una maggiore propensione nel riportare l’illusione e una finestra temporale d’integrazione di durata maggiore. Obiettivo di questo lavoro è stato approfondire questi fenomeni di interazione mediante l’utilizzo di un modello di rete neurale precedentemente sviluppato dal gruppo di Bioingegneria dell’Università di Bologna. Tale modello era in grado di simulare il fenomeno illusorio, ma presentava il limite di non considerare l’intera finestra temporale in cui tale fenomeno si verifica. Un’analisi di sensitività del modello ha individuato quali variazioni dei parametri potessero spiegare l’illusione in un ampio intervallo temporale e interpretare le differenze tra soggetti sani e soggetti autistici. I risultati delle simulazioni hanno evidenziato un soddisfacente accordo con i dati di letteratura. Le analisi svolte possono contribuire a chiarire i meccanismi alla base del fenomeno illusorio e della finestra temporale in cui esso ha luogo e a fare luce sulle possibili alterazioni nelle singole aree cerebrali e nella interazione tra esse che possono interpretare le differenze osservate nei soggetti autistici rispetto ai sani.
Resumo:
L’acustica delle aule scolastiche è uno dei fattori che influenzano principalmente la qualità ed il livello di apprendimento degli alunni. L'obiettivo della tesi è quello di dimostrare come si possono avere miglioramenti in termini di qualità acustica negli edifici scolastici con interventi mirati e dai costi ragionevoli. L’analisi è stata condotta su un edificio esistente che ospita una scuola media. Sono stati misurati in situ tutti gli aspetti acustici rilevanti e richiesti per legge: l’isolamento di facciata, il rumore di calpestio ed il tempo di riverberazione. Sono stati studiati anche altri parametri importanti, ma spesso trascurati o sconosciuti come Sti o Sti-PA, capaci di quantificare il grado di comprensione del parlato in ambienti chiusi. Lo studente, oltre ad aver contribuito allo svolgimento delle misurazioni, ha elaborato i dati e rilevato le criticità presenti nell’edificio scolastico. Attraverso l’uso di software di simulazione ha studiato gli interventi necessari per il ripristino e per il miglioramento dei requisiti acustici dei locali. Le soluzioni adottate sono un compromesso tra un buon livello di prestazioni acustiche ed i costi necessari per gli interventi proposti
Resumo:
Oggetto del presente elaborato è l’analisi contrastiva di sentenze penali italiane, austriache e tedesche del più alto grado di giudizio. Le analisi sono condotte su tre corpora di sentenze, uno per ogni variante linguistica presa in considerazione, e si svolgono su due livelli: il primo prevede l’analisi degli elementi macro- e microstrutturali delle sentenze, mentre il secondo livello si concentra sugli elementi di coesione testuale con un’analisi statistica della sintassi e della semantica dei connettori testuali, la cui funzione principale è quella di costruire relazioni semantiche tra gli elementi costitutivi del testo. Con la prima analisi si vogliono mettere in risalto le differenze tra il tedesco giuridico della Germania e quello dell’Austria ed evidenziare quindi le differenti strategie traduttive che devono essere utilizzate, se si ha a che fare con varianti di una stessa lingua provenienti da due sistemi giuridici differenti. Per quanto riguarda, invece, l’analisi degli elementi di coesione testuale, il suo obiettivo è quello di verificare da una parte, se esistono delle differenze nell’uso dei connettori all’interno della lingua tedesca e dall’altra di vedere quali differenze possono esserci nell’uso dei connettori in italiano e in tedesco. Nel primo capitolo si introducono i concetti giuridici che stanno alla base del processo penale in Italia, Austria e Germania, per introdurre la materia di base dei testi oggetto dell’analisi. Nel secondo capitolo si espongono delle considerazioni relative al genere testuale della sentenza e ai fattori extra-testuali che condizionano la sua redazione. Nel terzo capitolo si espone l’analisi contrastiva degli elementi macro- e microstrutturali dei corpora di sentenze italiane, austriache e tedesche. Nel quarto capitolo, infine, si espone l’analisi sintattica e semantica dei connettori individuati nei corpora di sentenze.
Resumo:
L'elaborato mostra in un primo momento i poteri del linguaggio, inteso come diretta espressione della persona. In un secondo momento la ricerca si sofferma sui poteri particolari della metafora. La metafora è in grado se usata in maniere consapevole di modificare il nostro rapporto con la comunità e quello con noi stessi.