435 resultados para Approssimazione, interpolazione, polinomi,funzioni,regolarizzazione
Resumo:
Il miglioramento dell'assistenza e dei risultati dei pazienti si basano attualmente sullo sviluppo e sulla convalida di nuovi farmaci e tecnologie, soprattutto in campi in rapida evoluzione come la Cardiologia Interventistica. Tuttavia, al giorno d’oggi ancora poca attenzione è rivolta ai professionisti che effettuano tali operazioni, il cui sforzo cognitivo-motorio è essenziale per la riuscita degli interventi. L’ottimizzazione delle prestazioni e dell'organizzazione del lavoro è essenziale in quanto influisce sul carico di lavoro mentale dell'operatore e può determinare l'efficacia dell'intervento e l'impatto sulla prognosi dei pazienti. È stato ampiamente dimostrato che diverse funzioni cognitive, tra cui l'affaticamento mentale comporta alcuni cambiamenti nei segnali elettroencefalografici. Vi sono diversi marcatori dei segnali EEG ciascuno con una determinata ampiezza, frequenza e fase che permettono di comprendere le attività cerebrali. Per questo studio è stato utilizzato un modello di analisi spettrale elettroencefalografica chiamato Alpha Prevalence (AP), che utilizza le tre onde alpha, beta e theta, per mettere in correlazione i processi cognitivi da un lato e le oscillazioni EEG dall’altro. Questo elaborato, condotto insieme all’azienda Vibre, prende in esame il cambiamento dell’AP, all’interno di una popolazione di cardiologi interventisti che effettuano interventi in cath-lab presso l’ospedale universitario di Ferrara, per valutare la condizione di affaticamento mentale o di eccessiva sonnolenza. L’esperimento prevede la registrazione del segnale EEG nei partecipanti volontari durante gli interventi e durante le pause nel corso dell’intero turno di lavoro. Lo scopo sarà quello di rilevare i cambiamenti nella metrica dell’alpha prevalence al variare del carico attentivo: ossia al variare delle risorse attentive richieste dal compito in relazione all’aumentare del tempo.
Resumo:
La struttura di un ospedale è notevolmente complessa nella sua organizzazione e conduzione, ed è per di più sollecitata a continue trasformazioni di carattere tecnologico ed organizzativo. Pertanto è essenziale, in una struttura sanitaria, il ruolo svolto dall’Ingegneria Clinica, che è quello dell’applicazione dei metodi e delle competenze specifiche proprie dell’ingegneria all’organizzazione, alla gestione e all’uso sicuro ed appropriato della strumentazione biomedica. Il seguente elaborato tratta le verifiche di sicurezza delle apparecchiature elettromedicali (EM) con una particolare attenzione agli aspetti normativi che le contraddistinguono e al ruolo dell’ingegnere clinico. Parlare di sicurezza per le tecnologie biomediche, significa garantire l’utilizzo delle stesse in assenza di rischi per l’utilizzatore e per il paziente, perciò il concetto di rischio è analizzato accuratamente. Oltre alla manutenzione correttiva è compito dell’ingegnere clinico programmare strategie di manutenzione preventiva per ottimizzare la durata fisiologica degli apparecchi EM e garantirne la qualità delle prestazioni erogate a lungo termine. L’utilizzo o il semplice invecchiamento di una qualsiasi apparecchiatura ne provoca infatti l’usura dei materiali e la deriva delle caratteristiche, aumentando la probabilità di guasto ed avaria. Pertanto la definizione di procedure di verifica elettrica periodica diventa fondamentale per l’individuazione di gran parte di quelle situazioni di compromissione della sicurezza che sono causa di danni e incidenti. Il loro scopo è quello di accertarsi che un’apparecchiatura abbia mantenuto nel tempo le caratteristiche di sicurezza dichiarate dal produttore e certificate dalla marcatura di conformità CE. Per completare l’iter di verifica di sicurezza e definirne il livello minimo accettabile è essenziale eseguire, oltre alle verifiche elettriche, le verifiche funzionali per valutare l’efficacia delle singole funzioni e prestazioni.
Resumo:
In questa tesi si propone una soluzione alle difficoltà di gestione, tutela e ricerca della fauna presente in Alto Adige. Nel 1992, la Legge n. 157, comunemente nota come “legge sulla caccia”, ha delegato alle Regioni e alle Province autonome la regolamentazione delle attività di soccorso della fauna selvatica. Ad oggi non esistono né una definizione univoca di “centro di recupero”, né una legislazione nazionale di riferimento, nonostante siano strutture ampiamente diffuse sul territorio italiano, con un ruolo significativo per la tutela della fauna selvatica e capaci di forte impatto sull’opinione pubblica. Ne è scaturito un quadro nazionale eterogeneo in cui gli effetti di leggi molto diverse tra loro si sommano alle individualità delle associazioni incaricate e dei singoli individui partecipanti. In provincia di Bolzano l’unico centro di recupero operativo secondo la delega provinciale, soddisfa in maniera molto marginale agli obblighi a cui dovrebbe sottostare ricoprendo questo ruolo all’interno della provincia. Sarà quindi ipotizzata la presenza di un ulteriore centro di recupero faunistico in grado di adattarsi meglio alle esigenze del territorio e risolvere alcune tra le problematiche che il territorio, gli enti locali e le attività animaliste lasciano irrisolte. Più nello specifico, le attività del centro saranno inquadrate in un programma globale che potrà essere adottato come programma nazionale per la salvaguardia delle specie animali minacciate, attraverso le funzioni di cura della fauna, educazione ambientale, sensibilizzazione mediatica, corsi di formazione volontari, conduzione di programmi di riproduzione e reintroduzione di specie rare, nonché raccolta di dati e materiali per la ricerca e lo studio scientifico in ambito ecosistemico.
Resumo:
Pacchetto R per il supporto dell'analisi di dati spazio temporali. Il pacchetto fornisce due funzioni, le quali permettono di avviare due applicazioni web, sviluppate con il framework shiny, per la visualizzazione di dati con connotazione spaziale di tipo areale o puntuale. Le applicazioni generano, a partire dai dati caricati dall'utente, due grafici interattivi per la visualizzazione della distribuzione temporale e spaziale del fenomeno che i dati descrivono. Sono previsti, all'interno dell'interfaccia utente delle applicazioni, una serie di componenti che permettono di personalizzare i grafici prodotti.
Resumo:
Un danneggiamento in una struttura altera le sue caratteristiche dinamiche quali frequenze naturali, indici di smorzamento e forme modali associate ad ogni frequenza naturale. In particolare, nel caso di travi, una variazione di rigidezza flessionale è in generale definibile danneggiamento se corrisponde ad una riduzione della stessa; tuttavia, anche un incremento altera i parametri dinamici della struttura. Il presente elaborato investiga l’applicazione del cambiamento nelle curvature modali per identificare un incremento di rigidezza flessionale in una trave metallica semplicemente appoggiata studiata presso il laboratorio LISG dell’Università di Bologna. Utilizzando le differenze centrali, le curvature modali sono state calcolate dalle forme modali ottenute sperimentalmente. Le modalità di calcolo utilizzate per identificare le forme modali della trave sono accomunate dall’utilizzo delle funzioni di trasferimento sperimentali ricavate sia dal rapporto tra le trasformate di output ed input, sia facendo uso della densità di potenza spettrale (PSD e CPSD). A supporto delle indagini sperimentali e per validare le modalità di calcolo utilizzate è stata modellata tramite elementi finiti una trave semplicemente appoggiata che simula la configurazione iniziale e quella irrigidita localmente in un suo tratto. I risultati numerici condotti validano le modalità utilizzate per la determinazione delle forme modali, evidenziando una forte sensibilità delle curvature modali all’irrigidimento locale. Come atteso, lato sperimentale le forme modali risultano meno accurate di quelle dedotte dalle esperienze numeriche. I risultati ottenuti evidenziano limiti e potenzialità dell’algoritmo di identificazione impiegato.
Resumo:
Nell’ambito dell’analisi dati è spesso necessario fare uso di grandi matrici per descrivere un dataset. In molti casi, per poterlo analizzare, risulta utile approssimare la matrice dei dati come prodotto di altre matrici. A tale fine, la Decomposizione in Valori Singolari (SVD) è una decomposizione ampiamente utilizzata, in quanto consente di ottenere la migliore approssimazione di un certo rango della matrice. Nonostante le proprietà di ottimalità, le matrici che si ottengono da tale decomposizione non risultano particolarmente significative in funzione dei dati e risulta perciò difficile utilizzarle direttamente per dedurre informazioni sul dataset. Per superare questo limite, abbiamo introdotto la Decomposizione CUR, un particolare tipo di decomposizione di rango basso, in cui la matrice di partenza viene espressa in funzione solo di alcune righe e colonne della matrice stessa. Essendo costruite a partire da alcuni dati effettivi della matrice, individuati attraverso la tecnica del Subspace Sampling, le matrici ottenute da questa decomposizione consentono di poter fare considerazioni sull’intero dataset. In questa tesi viene descritto l’algoritmo per la costruzione delle matrici di tale decomposizione e vengono messe in evidenza le garanzie sull’errore relativo dell’approssimazione ottenuta. Infine, viene presentata l’applicazione della Decomposizione CUR ad un dataset reale contenente i risultati delle votazioni dei giudici della Corte Suprema degli Stati Uniti e vengono analizzati e discussi i risultati ottenuti.
Resumo:
In questa tesi vengono studiati anelli commutativi unitari in cui ogni catena ascentente o ogni catena discendente di ideali diventa stazionaria dopo un numero finito di passi. Un anello commutativo unitario R in cui vale la condizione della catena ascendente, ossia ogni catena ascendente di ideali a_1 ⊆ a_2 ⊆ · · · ⊆ R diventa stazionaria dopo un numero finito di passi, o, equivalentemente, in cui ogni ideale è generato da un numero finito di elementi, si dice noetheriano. Questa classe di anelli deve il proprio nome alla matematica tedesca Emmy Noether che, nel 1921, studiando un famoso risultato di Lasker per ideali di anelli di polinomi, si accorse che esso valeva in tutti gli anelli in cui gli ideali sono finitamente generati. Questi anelli giocano un ruolo importante in geometria algebrica, in quanto le varietà algebriche sono luoghi di zeri di polinomi in più variabili a coefficienti in un campo K e le proprietà degli ideali dell’anello K[x_1, . . . , x_n] si riflettono nelle proprietà delle varietà algebriche di K^n. Inoltre, per questi anelli esistono procedure algoritmiche che sono possibili proprio grazie alla condizione della catena ascendente. Un anello commutativo unitario R in cui vale la condizione della catena discendente, ossia ogni ogni catena discendente di ideali . . . a_2 ⊆ a_1 ⊆ R diventa stazionaria dopo un numero finito di passi, si dice artiniano, dal nome del matematico austriaco Emil Artin che li introdusse e ne studiò le proprietà. Il Teorema di Akizuki afferma che un anello commutativo unitario R è artiniano se e solo se è noetheriano di dimensione zero, ossia ogni suo ideale primo è massimale.
Resumo:
Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.
Resumo:
Nel seguente elaborato esponiamo la teoria delle matrici ricorsive, ovvero matrici doppiamente infinite in cui ogni riga può essere calcolata ricorsivamente dalla precedente e in particolare mostriamo come questa teoria possa essere utilizzata per ottenere una versione del calcolo umbrale, il quale è idoneo anche allo studio dei polinomi p(x) che assumono valori interi quando la variabile x è un intero. Studieremo alcuni dei risultati del calcolo umbrale come conseguenze delle due principali proprietà delle matrici ricorsive, ovvero la Regola del Prodotto e il Teorema della Doppia Ricorsione.
Resumo:
Il problema inverso di Galois classico consiste nel chiedersi se, dato un gruppo finito G, esista una estensione di Galois del campo dei numeri razionali che abbia come gruppo di Galois il gruppo G. Una volta verificata l'esistenza di una tale estensione poi, si cercano polinomi a coefficienti razionali il cui gruppo di Galois sia G stesso. Noto dall'inizio del diciannovesimo secolo, il problema è tuttora in generale irrisolto, nonostante nel corso degli anni siano stati fatti notevoli progressi. In questa tesi il problema viene affrontato e risolto in alcuni casi particolari: viene mostrata la realizzazione dei gruppi ciclici, dei gruppi abeliani e dei gruppi simmetrici come gruppi di Galois sul campo dei razionali, e vengono dati alcuni esempi di polinomi con tali gruppi di Galois.
Resumo:
Il presente elaborato ha l’obiettivo di analizzare il fenomeno dei giochi di parole, in particolar modo quelli bilingue, e le allusioni, andandone a definire i tipi, le funzioni, gli usi e le caratteristiche. L’analisi è stata eseguita prendendo come riferimento alcuni esempi dei programmi russi Ciao, 2020! e Ciao, 2021!, in cui l’uso della lingua italiana svolge un ruolo fondamentale. L’intento è quello di comprendere più a fondo il funzionamento dei mezzi e strumenti per creare l’effetto comico, tenendo conto anche della cultura di un popolo: l’uso innovativo della lingua straniera per creare giochi di parole bilingue, le allusioni culturospecifiche russe e il modo in cui queste vengono utilizzate per avere un effetto sul pubblico sono alla base dell’unicità e originalità di questo elaborato. Inoltre, viene anche analizzata la risposta dell’audience italiana ai tentativi di fare umorismo, studiata sulla base di fenomeni come il failed humour e i culture bumps, cercando di dare una motivazione a tale reazione.
Resumo:
La ricerca in campo agroalimentare ha da sempre messo in evidenza l'importanza della conservazione degli alimenti nel tempo. Alcune nuove tecnologie basate sulle alte pressioni, e dunque non termiche, di stabilizzazione ai fini della conservazione, come l’High Hydrostatic Pressure (HHP) o High Pressure Processing (HPP), possono risultare fondamentali nel preservare aspetti microbiologici, qualitativi e nutrizionali dell'alimento. In questo elaborato verranno osservati alcuni aspetti del metaboloma, l’insieme delle molecole di piccola dimensione con funzioni metaboliche, di campioni di Mugil cephalus trattati con HHP. Tali aspetti permetteranno di ottenere informazioni sul profilo amminoacidico e sulla freschezza del pesce. Lo studio del profilo amminoacidico permette di tracciare la tendenza del sapore dello specifico campione analizzato dal momento che ogni amminoacido contribuisce a definire uno specifico gusto fondamentale. La freschezza del pesce sarà descritta attraverso il K index che, tramite lo studio della degradazione dei nucleotidi nel periodo post-mortem, rappresenta uno strumento utile al fine dello studio dei cambiamenti della freschezza nel tempo e secondo la tecnologia applicata. L’analisi del metaboloma del cefalo è stata eseguita mediante la spettroscopia di risonanza magnetica nucleare al protone (1H-NMR) di cui si descrivono i principi fisici nel primo capitolo. Nel secondo capitolo sono descritti i software utilizzati per indentificare le molecole che compongono il metaboloma dei campioni analizzati. Infine, nel terzo capitolo, si valuta l’effetto del trattamento HHP (a 400, 500 e 600MPa) sul profilo amminoacidico e sul K index durante il periodo di conservazione.
Resumo:
La tomografia ad impedenza elettrica è un metodo di imaging relativamente nuovo che ha suscitato interesse in un ampia gamma di discipline, la sua portabilità, sicurezza e basso costo suggeriscono che potrebbe risolvere diversi problemi clinici. Matematicamente il problema dell'EIT può essere suddiviso in un problema in avanti e uno inverso. Il problema forward, si basa su un'equazione differenziale parziale ellittica, e definisce l'insieme delle tensioni misurate a partire da una distribuzione nota di conducibilità. Il problema inverso è modellato come un problema dei minimi quadrati non lineare, in cui si cerca di ridurre al minimo la differenza tra le tensioni misurate e quelle generate dalla conducibilità ricostruita. Il problema inverso è mal posto e porta ad una soluzione che non dipende con continuità dai dati e quindi le tecniche di ricostruzione richiedono l'introduzione di un termine di regolarizzazione. L'elaborato si concentra sulle strategie algoritmiche per il problema inverso e sulla realizzazione di un'interfaccia grafica in grado di settare i parametri e confrontare velocemente i metodi proposti. Il progetto nella sua visione più ampia vorrebbe utilizzare le strategie algoritmiche proposte per dati ottenuti dal sistema prodotto dall'Università di Bologna nel laboratorio di Ingegneria Cellulare e Molecolare (ICM) di Cesena. I risultati dei test consentono di delineare quali siano gli strumenti migliori per poter arrivare ad una corretta ricostruzione dell'immagine nonché suggerire possibili miglioramenti della configurazione hardware al fine arrivare a risultati sperimentali completi.
Resumo:
In questo elaborato si studiano i risultati di convergenza di due differenti metodi stocastici di discesa dei gradienti applicati a funzioni non convesse. Si confrontano le ipotesi che caratterizzano i due differenti metodi e si paragonano i risultati a cui ogni metodo giunge.
Resumo:
Questo elaborato nasce dalla necessità di approfondire, formare e informare su BES e DSA, che è ormai parte della realtà scolastica di oggi ed in continua evoluzione ed aggiornamento. In particolare è utile per entrare nel mondo dell'insegnamento, conoscere e studiare alcune strategie e strumenti didattici che facilitano chi presenta DSA e le conseguenze nell'ambito matematico, in modo tale da evitare il senso di incapacità e inadeguatezza che a volte accompagna questi ragazzi durante gli studi, portandoli ad esperienze negative. Nel primo capitolo si definisce il significato di BES, la sua classificazione e legislazione nel corso degli anni, con un excursus storico che tratta i temi dell'inclusione e integrazione. Nel secondo capitolo si definiscono i DSA e le diverse tipologie del disturbo e si fa riferimento alla Legge 170 del 2010, che prevede misure educative e didattiche e interventi individualizzati e personalizzati da attuare nei confronti di studenti con DSA, previsti nel PDP. Vengono presentati anche i dati raccolti dal MIUR per quanto riguarda le statistiche sulla popolazione scolastica con DSA. Il secondo capitolo si conclude con una visione su quello che è il tema degli stereotipi legati al mondo dei DSA e dei relativi effetti psicologici che ne conseguono. Il terzo capitolo entra nel merito dell'insegnamento della matematica per alunni con discalculia nella scuola secondaria di secondo grado e lo studio di quelle che sono le difficoltà che si possono incontrare. Nel quarto capitolo viene presentato un questionario in versione studenti e versione docente, con l'obiettivo di rilevare il livello di informazione diffusa tra gli studenti e i docenti della scuola secondaria di secondo grado e l'importanza percepita di essere aggiornati sul tema. Nel quinto capitolo viene presentato un esempio di Unità di Apprendimento, con percorso individualizzato per studenti con DSA, sui polinomi e i prodotti notevoli in particolare.