914 resultados para Bioingegneria, Modelli matematici, Sistema cardiovascolare, Modello di Guyton, Contropulsazione esterna
Resumo:
Effettuando un’analisi della condizione attuale del parco edilizio che costituisce le nostre città e periferie, ciò che si può rilevare è che questo, allo stato attuale, risulta in condizioni di grave degrado tecnologico, energetico, sociale ed architettonico. Diviene pertanto necessario intervenire su questa ampia porzione di città. A tal fine possono essere attuati due metodi di intervento: la trasformazione dell’esistente attraverso la completa sostituzione dei manufatti edilizi, oppure la riqualificazione dell’esistente con opere mirate. Questo secondo modello di intervento ha il pregio di riconoscere il valore culturale del tessuto edilizio esistente, puntando a criteri di sviluppo sostenibile, e guardando ai manufatti esistenti riconoscendone il potenziale economico ed architettonico. Allo stato attuale pertanto la disciplina punta a questo secondo metodo di intervento ricercando soluzioni in grado di modificare le prestazioni dell’edificio fino a renderle soddisfacenti in rapporto alle nuove esigenze ambientali, economiche, del vivere contemporaneo dell’individuo e della collettività nel suo complesso. Tra le opere che possono essere attuate al fine di riqualificare queste preziose aree, oltre a quelle di riqualificazione che mirano al miglioramento del comportamento energetico e della qualità architettonica dell’edificio esistente, si considera anche l’intervento per addizione, che permette la densificazione dei tessuti esistenti attraverso l’aumento del numero di alloggi sociali e l’implementazione dei servizi. In questo modo si va ad implementare e completare la gamma di prestazioni di un manufatto edilizio che non è più in grado di soddisfare tutte quelle esigenze del vivere contemporaneo. Il risultato finale è quindi un sistema edilizio che, grazie all’intervento, può vantare una valorizzazione complessiva del patrimonio immobiliare, grazie agli elevati livelli di prestazione energetica, alle condizioni di vivibilità eccellenti raggiunte e alla migliorata qualità architettonica.
Resumo:
Background e scopi dello studio. Il carcinoma renale rappresenta circa il 3% delle neoplasie e la sua incidenza è in aumento nel mondo. Il principale approccio terapeutico alla malattia in stadio precoce è rappresentato dalla chirurgia (nefrectomia parziale o radicale), sebbene circa il 30-40% dei pazienti vada incontro a recidiva di malattia dopo tale trattamento. La probabilità di recidivare può essere stimata per mezzo di alcuni noti modelli prognostici sviluppati integrando sia parametri clinici che anatomo-patologici. Il limite principale all’impiego nella pratica clinica di questi modelli è legata alla loro complessità di calcolo che li rende di difficile fruizione. Inoltre la stratificazione prognostica dei pazienti in questo ambito ha un ruolo rilevante nella pianificazione ed interpretazione dei risultati degli studi di terapia adiuvante dopo il trattamento chirurgico del carcinoma renale in stadio iniziale. Da un' analisi non pre-pianificata condotta nell’ambito di uno studio prospettico e randomizzato multicentrico italiano di recente pubblicazione, è stato sviluppato un nuovo modello predittivo e prognostico (“score”) che utilizza quattro semplici parametri: l’età del paziente, il grading istologico, lo stadio patologico del tumore (pT) e della componente linfonodale (pN). Lo scopo del presente studio era quello di validare esternamente tale score. Pazienti e Metodi. La validazione è stata condotta su due coorti retrospettive italiane (141 e 246 pazienti) e su una prospettica americana (1943 pazienti). Lo score testato prevedeva il confronto tra due gruppi di pazienti, uno a prognosi favorevole (pazienti con almeno due parametri positivi tra i seguenti: età < 60 anni, pT1-T3a, pN0, grading 1-2) e uno a prognosi sfavorevole (pazienti con meno di due fattori positivi). La statistica descrittiva è stata utilizzata per mostrare la distribuzione dei diversi parametri. Le analisi di sopravvivenza [recurrence free survival (RFS) e overall survival (OS)] sono state eseguite il metodo di Kaplan-Meier e le comparazioni tra i vari gruppi di pazienti sono state condotte utilizzando il Mantel-Haenszel log-rank test e il modello di regressione di Cox. Il metodo di Greenwood è stato utilizzato per stimare la varianza e la costruzione degli intervalli di confidenza al 95% (95% CI), la “C-statistic” è stata utilizzata per descrivere l’ accuratezza dello score. Risultati. I risultati della validazione dello score condotta sulle due casistiche retrospettive italiane, seppur non mostrando una differenza statisticamente significativa tra i due gruppi di pazienti (gruppo favorevole versus sfavorevole), sono stati ritenuti incoraggianti e meritevoli di ulteriore validazione sulla casistica prospettica americana. Lo score ha dimostrato di performare bene sia nel determinare la prognosi in termini di RFS [hazard ratio (HR) 1.85, 95% CI 1.57-2.17, p < 0.001] che di OS [HR 2.58, 95% CI 1.98-3.35, p < 0.001]. Inoltre in questa casistica lo score ha realizzato risultati sovrapponibili a quelli dello University of California Los Angeles Integrated Staging System. Conclusioni. Questo nuovo e semplice score ha dimostrato la sua validità in altre casistiche, sia retrospettive che prospettiche, in termini di impatto prognostico su RFS e OS. Ulteriori validazioni su casistiche internazionali sono in corso per confermare i risultati qui presentati e per testare l’eventuale ruolo predittivo di questo nuovo score.
Resumo:
I sistemi di localizzazione, negli ultimi anni, sono stati oggetto di numerose ricerche a livello internazionale.Gli sviluppi più importanti hanno avuto inizio nell’ambito stradale con sistemi di navigazione e localizzazione, possibili grazie alle forti capacità del GPS.Infatti il GPS indica l’intero apparato che permette il funzionamento della maggior parte dei navigatori disponibili in commercio, che, però, non sono utilizzabili in ambito indoor, in quanto la ricezione del segnale proveniente dai satelliti GPS diventa scarsa o pressoché nulla. In questo senso, la localizzazione risulta rilevante nel caso di indoor positioning, ossia quando utenti hanno bisogno di conoscere la propria posizione e quella degli altri membri della squadra di soccorso all’interno di un edificio come, ad esempio, i vigili del fuoco durante un’operazione di salvataggio. Sono questi fattori che portano all’idea della creazione di un sistema di localizzazione indoor basato su smartphone o una qualsiasi altra piattaforma disponibile. Tra le diverse tecnologie e architetture legate al posizionamento indoor/outdoor e inerziale, con questa tesi, si vuole esporre la foot-mounted inertial navigation, un sistema che permette di conoscere la propria posizione, sia all’interno di edifici,sia in campi aperti, tramite l’utilizzo di una rete wireless o GPS e l’aiuto di sensori a basso costo.Tuttavia per conoscere la stima ottimale della posizione, della velocità e dell’orientamento corrente di un utente dotato di sensori sarà necessaria l’integrazione di diversi algoritmi, che permettono di modellare e stimare errori o di conoscere e predire la posizione futura dello stesso. Gli scopi principali di questo lavoro sono: 1)Tracciare i movimenti di un utente usando diversi sensori per ottenere una stima ottimale della posizione dello stesso; 2)Localizzare l’utente in 3 dimensioni con precisione; 3)Ottenere una transizione senza interruzioni per un posizionamento continuo tra aree indoor e outdoor;
Sviluppo di metodologie per la generazione automatica di calibrazioni di guidabilità motore e cambio
Resumo:
Il presente progetto ha riguardato lo studio e lo sviluppo di metodologie per la generazione automatica di calibrazioni di guidabilità motore cambio, dove con guidabilità si intende il legame intercorrente tra le richieste del conducente ed il reale comportamento del veicolo. La prima parte della tesi si è concentrata sullo studio delle calibrazioni motore e delle calibrazioni del cambio automatico attualmente sfruttate dai software di produzione, sviluppando un modello di simulazione in grado di verificare come queste calibrazioni influenzino il comportamento del veicolo, concentrandosi sugli andamenti delle accelerazioni e dei regimi motore risultanti. Dopo la validazione del modello, è stato creato uno strumento, in ambiente Matlab, che restituisce la calibrazione di guidabilità del cambio automatico, ovvero la mappa sfruttata dalla relativa centralina per gestire il cambio della marcia, ricevendo in ingresso le seguenti informazioni: le grandezze fisiche del veicolo nel suo complesso, quali la massa, i rapporti di trasmissione, il rapporto del differenziale, il raggio di rotolamento dinamico e tutte le inerzie dei componenti della driveline; le calibrazioni di guidabilità motore, costituite da otto mappe, una per ogni marcia, che definiscono la coppia motrice che si richiede al motore di erogare, in funzione della posizione del pedale acceleratore e del regime motore; il piano quotato del motore. Il codice, note queste informazioni, genera automaticamente la mappa di cambio marcia con le linee di Upshift (marcia innestata crescente) e Downshift (marcia innestata decrescente), in funzione della posizione del pedale e dei giri in uscita dal cambio. Infine, si è valutata una possibile strategia per la calibrazione delle otto mappe pedale con cui viene gestito il controllo motore. Si sono generate mappe a potenza costante in cui il pedale assume la funzione di regolatore di velocità.
Resumo:
Il presente elaborato propone un approccio alla traduzione per l’infanzia e, più concretamente, è la proposta di traduzione del libro "Una princesa en motocicleta" di Raquel Garrido Martos. L’elaborato si presenta, inoltre, come proposta editoriale per una casa editrice italiana che si dedichi alla rottura degli stereotipi e alla prevenzione della discriminazione per un’educazione paritaria. Dunque, questo lavoro si propone anche come contributo all’abbattimento di modelli sessisti prestabiliti, al fine di garantire al giovane pubblico la libertà di creare una propria identità. La struttura del presente elaborato è divisa principalmente in quattro capitoli. Il primo presenta l’autrice, la casa editrice spagnola e la possibile casa editrice italiana per l’eventuale pubblicazione del libro e la tematica principale del racconto. Il secondo capitolo è la proposta di traduzione, mentre il terzo presenta un’analisi alla traduzione, cioè la spiegazione delle difficoltà riscontrate dal punto di vista fonetico, lessicale e morfosintattico e le rispettive soluzioni traduttive. Il quarto capitolo descrive in breve l’esperimento di lettura effettuato sul campo, dal quale sono derivate alcune scelte di traduzione. Infine, nella conclusione, si traggono delle brevi considerazioni relative al processo di traduzione.
Resumo:
L'elaborato tratterà, in linea teorica e successivamente con un esempio pratico, il tema della strategia di costo basata sulla leadership di costo. La prima parte vedrà partirà da una linea ampia, al fine di chiarire al meglio cosa sia una strategia aziendale e come essa vada implementata,si restringerà poi andandosi a focalizzare con particolare attenzione su come applicare tale strategia nei mercati di beni durevoli, beni il cui consumo viene ripetuto nel tempo. L'analisi vedrà in particolare, li strumenti, i metodi aziendali e la filosofia per far si che tale strategia diventi più che competitiva nei mercati individuati. Si analizzerà inoltre brevemente il caso di Ikea, leader mondiale della produzione e distribuzione di mobili, la quale ha posto il suo modello di business proprio sulla Leadership di costo. La seconda parte vedrà un caso pratico: come tale strategia è stata implementata e utilizzata nel contesto del business game, una simulazione di un mercato proprio di beni durevoli, lavatrici e asciugabiancherie. L'analisi verterà sulla squadra Freedinelli che ha conseguito buoni risultati attraverso tale strategia. Infine verranno tratte delle conclusioni sulla convenienza ad utilizzare tale strategia, in quali casi sia più conveniente farlo e come farlo al meglio.
Resumo:
L’obiettivo di questa tesi è di descrivere e implementare via software un modello di rover autonomo per uso in ambito agricolo. La scelta di questo argomento deriva dal fatto che al laboratorio CASY dell’Università di Bologna è stato commissionato un robot che possa aiutare piccoli imprenditori agricoli a essere competitivi con i più grandi. Le funzionalità che il robot avrà, una volta ultimato, andranno dal tagliare l’erba allo spruzzare fertilizzante sugli alberi da frutto. Questa tesi si interessa del progetto del sistema di navigazione. Inizialmente viene introdotto il modello cinematico e in particolare la configurazione differential drive in cui il rover rientra. Successivamente viene elaborato un sistema di controllo basato sulla linearizzazione statica del feedback. Una volta completati il modello e il sistema di controllo si procede con la generazione di traiettoria: vengono analizzati e confrontati alcuni algoritmi per l’inseguimento di una traiettoria definita tramite waypoint. Infine è presentato un algoritmo per la navigazione all’interno di un campo di filari di alberi da frutto. Le uniche informazioni esterne disponibili in questo contesto sono le rilevazioni di sensori di distanza frontali e laterali, in quanto un GPS sarebbe troppo impreciso per gli scopi. Questa tesi costituisce la base per ulteriori sviluppi del progetto. In particolare la realizzazione di un programma di supervisione che stabilisca la modalità di moto da attuare e programmi specifici per le varie funzionalità agricole del rover.
Resumo:
Questo elaborato presenta una descrizione del fenomeno dell’accrescimento di materia su oggetti compatti, esponendo i principali modelli fisici a riguardo. Dopo un’introduzione, in cui viene mostrato come l’accrescimento rappresenti la più importante fonte di energia in astrofisica, si discute nel capitolo 1 il più semplice modello di accresci- mento, dovuto ad Hermann Bondi (1952). Tale modello, proprio per la sua semplicità, risulta molto importante, nonostante trascuri importanti aspetti fisici. Nel capitolo 2 si studia la fisica dei dischi di accrescimento, analizzando sia il caso generale che alcuni casi particolari, come quello stazionario o a viscosità costante. L’elaborato si conclude con una breve analisi dell’emissione termica da parte del disco di accrescimento.
Resumo:
Il concetto di funzione è tra i più rilevanti, ma anche tra i più controversi concetti matematici. In questo lavoro di tesi si è esaminato questo concetto a partire dalle sue origini fino ad arrivare alla definizione bourbakista, che è quella insegnata a tutti gli studenti a partire dalla scuola secondaria fino ad arrivare all'università. Successivamente si è analizzato in che modo questo delicato concetto viene presentato agli studenti delle scuole secondarie di secondo grado, osservando come le recenti Indicazioni Nazionali e Linee Guida danno suggerimenti per affrontare questo argomento, anche esaminando alcuni libri di testo. Infine si è descritto come il concetto di funzione abbia preso, in tempi relativamente recenti, un respiro più ampio dando luogo all'analisi funzionale, laddove le funzioni non sono più viste come corrispondenza punto a punto ma come oggetti che vengono osservati globalmente. Si considereranno infatti nuovi spazi i cui elementi sono funzioni.
Resumo:
Il riconoscimento delle gesture è un tema di ricerca che sta acquisendo sempre più popolarità, specialmente negli ultimi anni, grazie ai progressi tecnologici dei dispositivi embedded e dei sensori. Lo scopo di questa tesi è quello di utilizzare alcune tecniche di machine learning per realizzare un sistema in grado di riconoscere e classificare in tempo reale i gesti delle mani, a partire dai segnali mioelettrici (EMG) prodotti dai muscoli. Inoltre, per consentire il riconoscimento di movimenti spaziali complessi, verranno elaborati anche segnali di tipo inerziale, provenienti da una Inertial Measurement Unit (IMU) provvista di accelerometro, giroscopio e magnetometro. La prima parte della tesi, oltre ad offrire una panoramica sui dispositivi wearable e sui sensori, si occuperà di analizzare alcune tecniche per la classificazione di sequenze temporali, evidenziandone vantaggi e svantaggi. In particolare, verranno considerati approcci basati su Dynamic Time Warping (DTW), Hidden Markov Models (HMM), e reti neurali ricorrenti (RNN) di tipo Long Short-Term Memory (LSTM), che rappresentano una delle ultime evoluzioni nel campo del deep learning. La seconda parte, invece, riguarderà il progetto vero e proprio. Verrà impiegato il dispositivo wearable Myo di Thalmic Labs come caso di studio, e saranno applicate nel dettaglio le tecniche basate su DTW e HMM per progettare e realizzare un framework in grado di eseguire il riconoscimento real-time di gesture. Il capitolo finale mostrerà i risultati ottenuti (fornendo anche un confronto tra le tecniche analizzate), sia per la classificazione di gesture isolate che per il riconoscimento in tempo reale.
Resumo:
Per investigare i carichi sopportati dal corpo nella vita di tutti i giorni, è neccesario un metodo semplice per la stima delle forze di reazione piede-suolo (GRFs) . In questo studio viene presentato un modello per stimare l’andamento delle GRFs durante la corsa, a partire dalle accelerazioni misurate tramite sensori inerziali. I due soggetti che hanno partecipato all’esperimento hanno corso a 4 diverse velocità predefinite e indossato cinque sensori: uno su pelvi, due su tibia (destra e sinistra) e due su piede (destro e sinitro). A partire dai dati ottenuti è stato elaborato un modello che stima l’andamento delle GRFs (verticali e anteroposteriori) e i tempi di contatto e volo del passo tramite l’accelerazione assiale tibiale. Per la stima delle forze di reazione viene utilizzato un modello di stima basato sui tempi di contatto e volo, unito ad un modello che prevede la presenza o meno e il modulo degli impact peak sfruttando due picchi negativi individuati nelle accelerazioni assiali tibiali. Sono state utilizzate due pedane di carico come gold standard per valutare la qualità delle stime ottenute. Il modello prevede correttamente la presenza dell'impact peak nell'85% dei casi, con un errore sul modulo compreso fra il 6% e il 9%. Le GRFs verticali massime vengono approssimate con un errore fra l'1% e 5%, mentre le GRFs antero-posteriori con un errore fra l'8% e il 14% del range massimo-minimo del segnale.
Resumo:
Nel presente lavoro, ho studiato e trovato le soluzioni esatte di un modello matematico applicato ai recettori cellulari della famiglia delle integrine. Nel modello le integrine sono considerate come un sistema a due livelli, attivo e non attivo. Quando le integrine si trovano nello stato inattivo possono diffondere nella membrana, mentre quando si trovano nello stato attivo risultano cristallizzate nella membrana, incapaci di diffondere. La variazione di concentrazione nella superficie cellulare di una sostanza chiamata attivatore dà luogo all’attivazione delle integrine. Inoltre, questi eterodimeri possono legare una molecola inibitrice con funzioni di controllo e regolazione, che chiameremo v, la quale, legandosi al recettore, fa aumentare la produzione della sostanza attizzatrice, che chiameremo u. In questo modo si innesca un meccanismo di retroazione positiva. L’inibitore v regola il meccanismo di produzione di u, ed assume, pertanto, il ruolo di modulatore. Infatti, grazie a questo sistema di fine regolazione il meccanismo di feedback positivo è in grado di autolimitarsi. Si costruisce poi un modello di equazioni differenziali partendo dalle semplici reazioni chimiche coinvolte. Una volta che il sistema di equazioni è impostato, si possono desumere le soluzioni per le concentrazioni dell’inibitore e dell’attivatore per un caso particolare dei parametri. Infine, si può eseguire un test per vedere cosa predice il modello in termini di integrine. Per farlo, ho utilizzato un’attivazione del tipo funzione gradino e l’ho inserita nel sistema, valutando la dinamica dei recettori. Si ottiene in questo modo un risultato in accordo con le previsioni: le integrine legate si trovano soprattutto ai limiti della zona attivata, mentre le integrine libere vengono a mancare nella zona attivata.
Resumo:
La tesi approccia in modo transdisciplinare biologia, architettura e robotica, con la finalità di indagare e applicare principi costruttivi attraverso l’interazione tra sciami di droni che depositano materiale fibroso su strutture gonfiabili di supporto. L’attenzione principale è nello sviluppo (attraverso un workflow computazionale che gestisce sciami di agenti costruttori) di una tettonica che integra struttura, spazio e ornamento all’interno dello stesso processo progettuale, il quale si sviluppa coerentemente dall’ideazione fino alla fabbricazione. Sono stati studiati modelli biologici quali le colonie di ragni sociali, i quali costruiscono artefatti di grandi dimensioni relativamente a quelle del singolo individuo grazie ad un’organizzazione coordinata ed emergente e alle proprietà dei sistemi fibrosi. L’auto-organizzazione e la decentralizzazione, insieme alle caratteristiche del sistema materiale, sono stati elementi indispensabili nell’estrapolazione prima e nella codificazione poi di un insieme di regole adatte allo sviluppo del sistema costruttivo. Parallelamente alla simulazione digitale si è andati a sviluppare anche un processo fisico di fabbricazione che, pur tenendo conto dei vincoli economici e tecnici, potesse dimostrarsi una prova di concetto e fattibilità del sistema costruttivo. Sono state investigate le possibilità che un drone offre nel campo della fabbricazione architettonica mediante il rilascio di fili su elementi gonfiabili in pressione. Il processo può risultare vantaggioso in scenari in cui non è possibile allestire infrastrutture costruttive tradizionali (es. gole alpine, foreste). Tendendo conto dei vincoli e delle caratteristiche del sistema di fabbricazione proposto, sono state esplorate potenzialità e criticità del sistema studiato.
Resumo:
Gli impianti industriali moderni sono di tipo automatizzato, i processi sono cioè pilotati da un’unità di calcolo che fornisce i comandi necessari atti al corretto funzionamento dell’impianto. Queste tecnologie espongono le apparecchiature a problemi di Security, dunque attacchi volontari provenienti dall’esterno, al sistema di controllo. Esso può diventare la variabile manipolabile del terrorista informatico il quale può causare lo shut down del segnale o cambiare l’impostazione dei parametri di processo.Lo studio esposto si propone di identificare le possibili modalità di attacco e di individuare uno strumento sistematico che permetta di valutarne la vulnerabilità ad un possibile atto di sabotaggio. La procedura proposta è la PSC-SHaRP (Process System Cyber-Security Hazard Review Procedure) essa consta di due strutture chiamate rispettivamente Alpha e Beta. La metodologia è volta a individuare i potenziali pericoli posti dagli attacchi informatici piuttosto che a stimarne un profilo di rischio e/o probabilità di successo. La ShaRP Alpha, viene utilizzata per analizzare le conseguenze di deviazioni cyber su singole macchine presenti in impianto o sistemi modulari. La ShaRP Beta viene utilizzata per analizzare le conseguenze di attacchi cyber sul sistema costituito dall’impianto di processo. Essa è quindi in grado di analizzare le ripercussioni che manipolazioni su una o più apparecchiature possono avere sull’impianto nel suo complesso. Nell’ultima parte dell’elaborato sono state trattate le possibilità di accesso da parte del ‘’terrorista’’ al sistema di controllo e sicurezza, dunque i sistemi di gestione del DCS e del SIS e le barriere software e hardware che possono essere presenti.
Resumo:
La diffusione di soluzioni domotiche dipende da tecnologie abilitanti che supportino la comunicazione tra i numerosi agenti delle reti. L’obiettivo della tesi è progettare e realizzare un middleware per sensori distribuiti Java-based chiamato SensorNetwork, che permetta ad un agente domotico di effettuare sensing sull’ambiente. Le funzionalità principali del sistema sono uniformità di accesso a sensori eterogenei distribuiti, alto livello di automazione (autoconfigurazione e autodiscovery dei nodi), configurazione a deployment time, modularità, semplicità di utilizzo ed estensione con nuovi sensori. Il sistema realizzato è basato su un’architettura a componente-container che permette l’utilizzo di sensori all’interno di stazioni di sensori e che supporti l’accesso remoto per mezzo di un servizio di naming definito ad-hoc.