65 resultados para gusto classico


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi triennale è quello di fornire un'introduzione ad alcuni concetti della computazione quantistica e comprenderne i fenomeni fisici che ne stanno alla base, dall'idea astratta di qubit fino ai più recenti studi sui centri NV, passando attraverso appropriati strumenti matematici. Recentemente si è realizzato che l'uso delle proprietà della meccanica quantistica può migliorare drasticamente le velocità di calcolo. È quindi cresciuto l'interesse nel campo dell'informazione quantistica. Tra le principali difficoltà vi è il fenomeno della decoerenza, responsabile della distruzione degli stati di sovrapposizione quanto-meccanici. Studiamo la dinamica dei sistemi quantistici aperti, soffermandoci sugli aspetti della loro evoluzione rilevanti nel passaggio dal mondo quantico al classico. A tal fine, e per una migliore comprensione della decoerenza, ricaviamo l'equazione master cui deve obbedire la matrice di densità nel noto modello di Jaynes-Cummings per l'interazione ambiente-sistema. In particolare, descriviamo come un ristretto set di manipolazioni sul sistema ci permetta di proteggerlo dalla decoerenza e come tale tecnica, detta disaccoppiamento dinamico, si rivela un utile strumento per la realizzazione di gates quantistici nel caso dei qubit implementati sfruttando i cosiddetti centri NV del diamante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le alte pressioni di omogeneizzazione sono considerate una tecnologia non termica basata sull’applicazione di pressioni comprese tra 60 e 400 MPa ad alimenti fluidi o fluidificabili, con un tempo di trattamento di pochi millisecondi. Questa tecnologia permette di ottenere una serie di effetti sull’alimento che variano in rapporto all’entità del trattamento applicato e alla matrice fluida considerata. Pertanto, le alte pressioni di omogeneizzazione rappresentano una delle tecnologie maggiormente studiate in ragione delle loro buone opportunità applicative a livello industriale. Tale tecnologia viene comunemente applicata per modificare le proprietà funzionali di alcune macromolecole caratteristiche degli alimenti ed ha permesso l’ottenimento di prodotti di origine lattiero-casearia ed anche succhi di frutta caratterizzati da migliore texture, gusto, flavour e aumentata shelf-life. L’omogeneizzazione ad alta pressione, considerata come trattamento di sanitizzazione a freddo, è in grado di disattivare sia microrganismi patogeni che degradativi presenti in un determinato sistema, contribuendo a ridurre o contenere quindi lo sviluppo microbico nei prodotti alimentari. L’effetto di tale tecnologia, quando applicata a livelli compresi tra 60-200 MPa bar è stato valutato nei confronti di diversi patogeni quali Escherichia coli, Listeria monocytogenes, Yersinia enterocolitica, Staphylococcus aureus, Salmonella typhimurium microrganismi degradativi, come Bacillus subtilis e lieviti, deliberatamente inoculati in prodotti diversi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo sviluppo di tecnologie innovative nel campo delle telecomunicazioni, dei sensori e degli strumenti di calcolo, ha fatto sì che negli ultimi decenni sia stato possibile trovare soluzioni innovative a problemi tradizionali della medicina. Allo stato attuale è possibile ricorrere a dispositivi di monitoraggio di dimensioni molto contenute, che sono in grado di comunicare attraverso una rete di infrastrutture di comunicazione, fino a raggiungere la struttura ospedaliera. In questa tesi si è scelto di approfondire il ruolo della telemedicina nei casi di diabete e patologie cardiache, due fra i disturbi che maggiormente colpiscono la popolazione. Così facendo si osserva come la telemedicina possa rendersi utile in tutte le fasi del trattamento del disturbo: dalla prevenzione alla cura e alla riabilitazione, in maniera tale da perfezionare il rapporto classico fra paziente e specialista della medicina. Si eliminano barriere spaziali e di aggiungono una nuova gamma di servizi, tanto utili al medico quanto al paziente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I simulatori di guida sono strumenti altamente tecnologici che permettono di svolgere attività di ricerca in vari ambiti quali la psicologia, la medicina e l’ingegneria. Tuttavia, affinché i dati ottenuti mediante le simulazioni siano rapportabili alla loro controparte reale, la fedeltà delle componenti del simulatore di guida deve essere elevata. Questo lavoro tratta del miglioramento del sistema di restituzione del movimento nel simulatore a due gradi di libertà (2DOF) SIMU-LACET Driving Simulator, costruito e sviluppato presso il laboratorio LEPSIS dell’IFSTTAR (Istituto Francese delle Scienze e Tecnologie dei Trasporti, dello Sviluppo e delle Reti), in particolare nella sua sede di Parigi – Marne-la-Vallée. Si è deciso di andare a riprogettare la parte software del sistema di restituzione del movimento (motion cueing), operando su due elementi principali: lo scale factor (fattore di scala) applicato agli impulsi dinamici provenienti dal modello veicolare e i Motion Cueing Algorihms (MCA, algoritmi di restituzione del movimento), questo per entrambi i gradi di libertà. Si è quindi intervenuti sul modello esistente implementato in MATLAB-Simulink nello specifico blocco del motion cueing sul surge (traslazione longitudinale) e sul yaw (imbardata). Riguardo lo scale factor, è stata introdotta una metodologia per creare uno scale factor non lineare in forma esponenziale, tale da migliorare la restituzione degli impulsi meno ampi, pur rispettando i limiti fisici della piattaforma di movimento. Per quanto concerne il MCA, si sono vagliate diverse transfer function dell’algoritmo classico. La scelta finale dei MCA e la validazione del motion cueig in genere è stata effettuata mediante due esperimenti ed il giudizio dei soggetti che vi hanno partecipato. Inoltre, in virtù dei risultati del primo esperimento, si è investigata l’influenza che la strategia in merito al cambio delle marce avesse sulla percezione del movimento da parte del guidatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I big data sono caratterizzati dalle ben note 4v: volume, velocità, veracità e varietà. Quest'ultima risulta di importanza critica nei sistemi schema-less, dove il concetto di schema non è rigido. In questo contesto rientrano i database NoSQL, i quali offrono modelli dati diversi dal classico modello dati relazionale, ovvero: documentale, wide-column, grafo e key-value. Si parla di multistore quando ci si riferisce all'uso di database con modelli dati diversi che vengono esposti con un'unica interfaccia di interrogazione, sia per sfruttare caratteristiche di un modello dati che per le maggiori performance dei database NoSQL in contesti distribuiti. Fare analisi sui dati all'interno di un multistore risulta molto più complesso: i dati devono essere integrati e va ripristinata la consistenza. A questo scopo nasce la necessità di approcci più soft, chiamati pay-as-you-go: l'integrazione è leggera e incrementale, aggira la complessità degli approcci di integrazione tradizionali e restituisce risposte best-effort o approssimative. Seguendo tale filosofia, nasce il concetto di dataspace come rappresentazione logica e di alto livello dei dataset disponibili. Obiettivo di questo lavoro tesi è studiare, progettare e realizzare una modalità di interrogazione delle sorgenti dati eterogenee in contesto multistore con l'intento di fare analisi situazionali, considerando le problematiche di varietà e appoggiandosi all'integrazione fornita dal dataspace. Lo scopo finale è di sviluppare un prototipo che esponga un'interfaccia per interrogare il dataspace con la semantica GPSJ, ovvero la classe di query più comune nelle applicazioni OLAP. Un'interrogazione nel dataspace dovrà essere tradotta in una serie di interrogazioni nelle sorgenti e, attraverso un livello middleware, i risultati parziali dovranno essere integrati tra loro in modo che il risultato dell'interrogazione sia corretto e allo stesso tempo completo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La legge n.92 del 20 agosto 2019 ha introdotto l'insegnamento dell'educazione civica nelle scuole, con un approccio fortemente interdisciplinare. Nell'elaborato viene proposto lo studio dei sistemi elettorali, con una visione trasversale fra la matematica e l'educazione civica, al fine di rendere consapevoli gli studenti riguardo al nesso fra voto e rappresentanza in democrazia. La scelta del sistema elettorale infatti influisce pesantemente sulla scelta degli organi rappresentanti, generando incongruenze e paradossi. Viene inoltre descritta un'attività didattica proposta ad alcune classi del triennio del liceo classico, presentando gli strumenti e le strategie didattiche utilizzate, volte a stimolare diversi canali cognitivi. L’attività proposta punta ad aumentare la consapevolezza dell’utilizzo della matematica nei sistemi elettorali e a stimolare l’interesse verso la materia. In conclusione dell’elaborato vengono analizzati i risultati di un breve questionario rilasciato agli studenti per valutare l’efficacia dell’attività didattica effettuata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema inverso di Galois classico consiste nel chiedersi se, dato un gruppo finito G, esista una estensione di Galois del campo dei numeri razionali che abbia come gruppo di Galois il gruppo G. Una volta verificata l'esistenza di una tale estensione poi, si cercano polinomi a coefficienti razionali il cui gruppo di Galois sia G stesso. Noto dall'inizio del diciannovesimo secolo, il problema è tuttora in generale irrisolto, nonostante nel corso degli anni siano stati fatti notevoli progressi. In questa tesi il problema viene affrontato e risolto in alcuni casi particolari: viene mostrata la realizzazione dei gruppi ciclici, dei gruppi abeliani e dei gruppi simmetrici come gruppi di Galois sul campo dei razionali, e vengono dati alcuni esempi di polinomi con tali gruppi di Galois.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversi studi in didattica della matematica sostengono che la performance sia influenzata non solo da fattori cognitivi ma anche da fattori affettivi. È ormai assodato che ogni individuo si approccia ai saperi da acquisire e da insegnare in modi dipendenti da aspetti come le emozioni che ha provato e che prova nei confronti della disciplina, le competenze che crede di possedere, le convinzioni sui contenuti disciplinari da apprendere o da spiegare. La matematica che si studia nella scuola secondaria di secondo grado è lontana dalla matematica contemporanea e dalla ricerca attuale. Questo, unito al fatto che quasi mai si sottolinea il percorso storico che ha portato allo sviluppo di certi strumenti matematici, fa sì che l’idea che uno studente si fa di questa disciplina sia irrealistica: una materia arida, immobile, con risultati indiscutibili e stabiliti nell’antichità più remota. Alla luce di ciò si può pensare di proporre agli studenti di scuola secondaria attività che li stimolino e li motivino, nell’ottica di modificare l'insieme delle loro convinzioni sulla matematica. In questo lavoro mi sono occupata della classificazione delle varietà bidimensionali per poi affrontare il passaggio alle 3-varietà. Si tratta di un problema che presenta diversi motivi di interesse: classico ma risolto in tempi moderni, frutto di un processo di pensiero collettivo e che mostra come la matematica sia una materia in costante evoluzione, nella quale l’approccio interdisciplinare può essere vincente rispetto a quello settoriale. Una prima parte del lavoro è stata dedicata allo studio dei temi topologici e geometrici con riferimento non solo alla genesi e, quando possibile, alla strategia dimostrativa, ma anche alla loro valenza didattica. Una seconda parte è stata dedicata alla selezione e all’analisi di come alcuni di questi contenuti si possano declinare in modo fruibile e fertile per gli studenti di scuola secondaria e alla progettazione di un possibile percorso didattico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un problema frequente nell'analisi dei dati del mondo reale è quello di lavorare con dati "non coerenti", poiché raccolti a tempi asincroni o a causa di una successiva modifica "manuale" per ragioni che esulano da quelle matematiche. In particolare l'indagine dell'elaborato nasce da motivazioni di tipo finanziario, dove strumenti semplici come le matrici di correlazione, che sono utilizzate per capire le relazioni tra vari titoli o strategie, non rispettano delle caratteristiche cruciali a causa dell'incoerenza dei dati. A partire da queste matrici "invalide" si cerca la matrice di correlazione più vicina in norma, in modo da mantenere più informazioni originali possibili. Caratterizzando la soluzione del problema tramite analisi convessa, si utilizza il metodo delle proiezioni alternate, largamente utilizzato per la sua flessibilità anche se penalizzato dalla velocità di convergenza lineare. Viene quindi proposto l'utilizzo dell'accelerazione di Anderson, una tecnica per accelerare la convergenza dei metodi di punto fisso che, applicata al metodo di proiezione alternata, porta significativi miglioramenti in termini di tempo computazionale e numero di iterazioni. Si mostra inoltre come, nel caso di varianti del problema, l'applicazione dell'accelerazione di Anderson abbia un effetto maggiore rispetto al caso del problema "classico".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni la forte evoluzione tecnologica ha avuto un impatto significativo su un ampio numero di settori ed in particolar modo sull’industria manifatturiera, specie in quelle aziende che hanno saputo cogliere le opportunità di business che essa ha generato. La forte dinamicità dei requisiti con cui si sono trovati a fare i conti gli sviluppatori software, ha portato alla stesura, poco più di vent’anni fa’, dell’oramai noto "Manifesto per lo Sviluppo Agile di Software" all’interno del quale sono introdotti i principi cardini che in un secondo momento hanno contribuito alla formazione dell’approccio Agile. Questa occasione ha senza dubbio cambiato radicalmente l’ottica con cui era sempre stato visto, almeno fino a quel momento, il classico processo utilizzato per concepire e successivamente sviluppare il codice: costituito da una sequenza di fasi predefinite, dove l’insieme dei requisiti era definito nella sua interezza, prima della fase di effettiva implementazione. Il metodo di lavoro più "tradizionale" non rappresenta un approccio sbagliato o inefficace ma è una modalità che si prestava bene ad essere impiegata in scenari dove il concetto di business assumeva connotati diversi rispetto a quello degli ultimi anni, caratterizzati da un’elevata incertezza, repentini cambiamenti e alta probabilità di dover ridefinire i requisiti, al contrario i cambiamenti avvenivano con una scarsa frequenza e per questo risultavano facilmente gestibili. La presente attività di tesi si propone di analizzare i maggiori vantaggi e le principali criticità, che l’impiego di metodologie Agile devono affrontare all’interno di un contesto manifatturiero ed in particolare in un caso di studio reale: un’iniziativa progettuale per la realizzazione di distinte di servizio e istruzioni di montaggio e smontaggio elettroniche all’interno dell’organizzazione Bonfiglioli S.P.A., una multinazionale leader nella produzione e nella vendita di riduttori e motoriduttori.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca in campo agroalimentare ha da sempre messo in evidenza l'importanza della conservazione degli alimenti nel tempo. Alcune nuove tecnologie basate sulle alte pressioni, e dunque non termiche, di stabilizzazione ai fini della conservazione, come l’High Hydrostatic Pressure (HHP) o High Pressure Processing (HPP), possono risultare fondamentali nel preservare aspetti microbiologici, qualitativi e nutrizionali dell'alimento. In questo elaborato verranno osservati alcuni aspetti del metaboloma, l’insieme delle molecole di piccola dimensione con funzioni metaboliche, di campioni di Mugil cephalus trattati con HHP. Tali aspetti permetteranno di ottenere informazioni sul profilo amminoacidico e sulla freschezza del pesce. Lo studio del profilo amminoacidico permette di tracciare la tendenza del sapore dello specifico campione analizzato dal momento che ogni amminoacido contribuisce a definire uno specifico gusto fondamentale. La freschezza del pesce sarà descritta attraverso il K index che, tramite lo studio della degradazione dei nucleotidi nel periodo post-mortem, rappresenta uno strumento utile al fine dello studio dei cambiamenti della freschezza nel tempo e secondo la tecnologia applicata. L’analisi del metaboloma del cefalo è stata eseguita mediante la spettroscopia di risonanza magnetica nucleare al protone (1H-NMR) di cui si descrivono i principi fisici nel primo capitolo. Nel secondo capitolo sono descritti i software utilizzati per indentificare le molecole che compongono il metaboloma dei campioni analizzati. Infine, nel terzo capitolo, si valuta l’effetto del trattamento HHP (a 400, 500 e 600MPa) sul profilo amminoacidico e sul K index durante il periodo di conservazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente elaborato si prefigge l’obiettivo di fornire una panoramica completa ed esau- stiva sullo studio delle statistiche di fotoconteggio, ricavando i fondamentali risultati di natura teorica e al contempo illustrando le procedure di determinazione sperimentale. Il principale risultato conseguibile in tale ambito è l’inequivocabile dimostrazione della natura quantizzata della luce, rendendo definitivamente superato l’alternativo model- lo semiclassico, in cui l’ipotesi di quantizzazione è limitata all’interazione radiazione- rilevatore, mentre la luce viene considerata interamente trattabile come onda. Se infatti entrambi gli approcci forniscono previsioni in accordo con le osservazioni sperimentali per quanto riguarda sorgenti coerenti e termiche, che producono rispettivamente distri- buzioni Poissoniane o Super-Poissoniane, il secondo modello non è in grado di motivare in alcun modo l’esistenza delle distribuzioni Sub-Poissoniane, caratterizzate matemati- camente da una varianza inferiore al valor medio di conteggi ̄n. Il primo capitolo è dedicato a ricavare la forma delle statistiche di fotoconteggio basan- dosi sul modello a fotoni, riportando le più rilevanti dimostrazioni matematiche; il secondo capitolo ha invece l’obiettivo di analizzare i risultati forniti dal modello semi- classico, rivelando la perfetta compatibilità con quelli ottenuti nel capitolo precedente per quanto riguarda sorgenti di tipo classico; nel terzo capitolo si illustra una serie di esperimenti svolti presso il ”Laboratorio di Ottica Quantistica dell’Istituto Nazionale di Ottica-CNR”, nel polo scientifico di Sesto Fiorentino, realizzati con l’obiettivo di confermare la validità delle conclusioni di natura teorica esposte nei primi due capitoli; infine il quarto capitolo si prefigge lo scopo di dare un breve accenno alle distribuzioni di tipo Sub-Poissiano, attraverso una breve trattazione matematica e illustrando alcune modalità di osservazione sperimentale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il reversal learning (o apprendimento inverso) è la capacità di un soggetto di invertire una regola precedentemente appresa per adattarsi a un cambiamento avvenuto nell’ambiente esterno. Nel primo capitolo vengono esposte alcune strutture anatomiche generalmente coinvolte nell’apprendimento e negli aspetti motorio, cognitivo e decisionale dell’essere umano, quali i gangli della base. Poiché alcune zone dei gangli della base sono costituite da neuroni dopaminergici, viene introdotta l’importanza della dopamina per l’apprendimento e viene spiegato il suo ruolo all’interno del modello neuro computazionale tradizionale dei gangli della base. Dopo aver illustrato in cosa consiste l’apprendimento classico, in cosa consiste l’apprendimento operante e il ruolo della ricompensa in seguito al conseguimento di un’azione, viene approfondito il concetto di apprendimento per rinforzo, di punizione e di errori di previsione. La comprensione di queste forme di apprendimento dovuto a stimolo-azione-ricompensa/punizione e di cosa si intende per errori di previsione risulta fondamentale per capire l’apprendimento inverso; infatti, quest’ultimo viene presentato al lettore solamente nel secondo capitolo. Successivamente alla sua introduzione, vengono esposti/e alcuni disturbi/patologie con lo scopo di evidenziare il motivo per cui l’abilità di inversione risulti invalidata nei soggetti che ne sono affetti. Ciò permette di delineare un quadro generale sull’apprendimento inverso e su come esso risulti corretto o compromesso in un soggetto in base alla sua condizione di salute. Infine, nel terzo capitolo viene illustrato un recentissimo modello matematico volto a descriverlo in maniera più dettagliata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi verrà enunciato e dimostrato un notevole teorema chiamato identità di Pohozaev, che riguarda le soluzioni di particolari problemi di Dirichlet per il Laplaciano. Questo risultato sarà ottenuto come corollario del classico teorema della divergenza. Dopo alcune nozioni preliminari, si enuncia il teorema della divergenza. Infine, dopo una breve introduzione riguardo le equazioni alle derivate parziali del 2° ordine e problemi di Dirichlet per il Laplaciano, viene enunciata e dimostrata l'identità di Pohozaev. Seguono alcuni corollari, dei quali uno riguarda la non esistenza di soluzioni per un particolare problema di Dirichlet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si affronta analiticamente il problema della stabilità di modelli a più specie interagenti, in campo epidemiologico, per la diffusione ed il controllo di infezioni da virus. Vengono considerati non solo modelli governati da Sistemi Dinamici, ma anche modelli parabolici del tipo Diffusione e Reazione. Partendo dal modello pioneristico SIR di Kermak-McKendrick si affrontano in modo approfondito tutti gli aspetti matematici che permettono di prevenire e controllare la formazione e la gravità di una possibile epidemia. Il modello viene poi articolato con l'aggiunta di considerazioni sulla variazione demografica della popolazione, indicato per questo motivo con il termine endemico. Si generalizza poi questo modello a due possibili applicazioni, includendo nella prima gli effetti della vaccinazione, ottenendo così il nuovo sistema dinamico SIRV. La seconda rappresenta invece uno studio avvenuto agli inizi dell'epidemia da COVID-19, quando i vaccini non erano ancora disponibili. Successivamente viene presentato il recente studio di Bellomo, estensione del modello prototipo per la diffusione di virus, un sistema di tipo Diffusione-Reazione con equazione di tipo diffusione-drift, in cui vengono connessi due aspetti importanti: la propagazione di virus e la chemotassi, in forte analogia con il modello SIR e derivante dalla logica del modello pioneristico di Keller-Segel. Infine, a completamento dello studio analitico, vengono proposti alcuni strumenti dell'analisi numerica, utilizzando l'ambiente MATLAB sul classico modello SIR e su altri due modelli che lo generalizzano per tener conto in un primo tempo della diffusione spaziale della coppia SI e poi solo di S, ma con effetto drift, guidato da I.