899 resultados para cuore modello matematico biologia dei sistemi
Resumo:
Il documento illustra il lavoro di analisi dei requisiti, progettazione, implementazione e valutazione di un sistema per l’autenticazione degli utenti delle workstation della sede di Scienze del Dipartimento di Informatica — Scienza ed Ingegneria (DISI) che si integri al sistema di autenticazione d’Ateneo. Il sistema descritto è entrato in produzione il 24 settembre 2014 ed è tuttora operante. Il lavoro percorre le modalità di gestione degli account utente in uso presso il DISI e le nuove modalità di organizzazione del DSA d’Ateneo discutendo le motivazioni per cui le soluzioni standard non possono essere adottate nel caso esposto. Analizzato il processo di login dei sistemi Unix e le librerie coinvolte verrà esposto il nuovo progetto, le particolarità dello sviluppo delle nuove librerie PAM e di Name Service Switch e la loro modalità di funzionamento e configurazione all’interno del cluster Unix. In conclusione vengono presentate una serie di valutazioni che mostrano i vantaggi e il rispetto dei requisiti della nuova implementazione.
Resumo:
La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.
Resumo:
L'informatica, assieme alle sue innovazioni tecnologiche, offre al mondo d'oggi uno scenario in continuo sviluppo evolutivo che permette di facilitare alcune necessità dell'essere umano. Con la nascita di internet e dei nuovi dispositivi cellulari, la comunicazione è stata resa più malleabile e immediata. Tuttavia, le nuove tecnologie utilizzano infrastrutture complesse che non sempre sono ampiamente sfruttate a causa delle loro esigenze quali scalabilità, risposte in tempo reale, o tolleranza. Per far fronte a queste caratteristiche, una nuova tendenza del software è quella di fornire autonomia e pro-attività alle entità nel sistema in modo da incrementare la loro interazione. Queste caratteristiche permettono di responsabilizzare i soggetti rendendo il sistema auto-organizzato, con una migliore scalabilità,robustezza, e quindi riducendo le esigenze di calcolo di ciascuna entità. Lo studio dei sistemi auto-organizzanti è stato ispirato alla natura, e in particolare, ai sistemi biologici. Questi sistemi mostrano le caratteristiche interessanti per gli scenari pervasivi, poichè sono robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagiscono a determinate modifiche che si verificano nell'ambiente comportandosi di conseguenza. L'ingegneria dell'auto-organizzazione ha il compito di simulare e testare questi comportamenti presentando uno schema progettuale completo che permetta di presentare soluzioni ricorrenti a problemi noti. Tale schema è definito in termini informatici design pattern. Le entità, definite agenti, per interagire e comunicare tra di loro hanno bisogno di coordinarsi tramite un modello specifico. Nel nostro caso è stato scelto TuCSoN, poichè riesce a separare uno spazio dedicato allo scambio di informazioni da uno spazio dedicato alle specifiche che permette di descrivere delle politiche di comportamento per sistemi MAS implementati nell'opportuno linguaggio di programmazione ReSpecT.
Resumo:
L'obiettivo di questa tesi è quello di fornire una panoramica sulla tecnologia UWB ed eseguire una caratterizzazione ranging.
Resumo:
Le fratture vertebrali sono tra le principali cause dell’incremento della mortalità. Queste sono dovute principalmente a traumi, tumori o particolari patologie metaboliche che colpiscono l’osso. Il tratto maggiormente interessato è quello toraco-lombare in quanto deve sopportare la maggior parte dei carichi. Risulta quindi necessario comprendere come la colonna vertebrale risponde ai carichi così da studiare e sviluppare nuovi protocolli e trattamenti per disordini del tratto spinale. Informazioni quantitative possono essere ottenute mediante test in vitro. Questi hanno alcune limitazioni dovute principalmente alla difficoltà di misurare le tensioni e le deformazioni in zone diverse dalla superficie, alla complessità e al costo delle prove. Un altro limite delle prove in vitro è rappresentato dal fatto che ciascun campione può essere testato a rottura una volta sola. Queste problematiche possono essere superate con l’utilizzo contemporaneo di modelli matematici e test in vitro. In particolare i test in vitro sono utilizzati in fase di validazione del modello matematico, ovvero nella determinazione di quanto il modello è una rappresentazione del comportamento reale che si sta simulando. Il presente lavoro di tesi si inserisce in un progetto di caratterizzazione di vertebre toraco-lombari utilizzate per la validazione di un modello agli elementi finiti. In particolare l’obiettivo dello studio è stata la realizzazione di prove meccaniche in modo da replicare l’anterior wedge fracture. Tali prove sono state effettuate presso il Laboratorio di Biomeccanica del Dipartimento di Ingegneria Industriale dell’Università di Bologna. Gli spostamenti registrati durante le prove sono stati utilizzati dal Laboratorio di Tecnologia Medica dell’Istituto Ortopedico Rizzoli come condizioni al contorno per la realizzazione di un modello FE. Una volta validato e messo a punto, il modello sarà utilizzato per valutare lo stato di salute della colonna vertebrale in vivo.
Resumo:
Questo elaborato presenta le fasi di progettazione e realizzazione di un sistema di terminazione forzata del volo per Aeromobili a Pilotaggio Remoto. Tale sistema ha lo scopo di evitare il potenziale impatto di un APR con cose e persone in caso di perdita di controllo dello stesso, provocandone la caduta all'interno di un’area sicura. Questo dispositivo è ormai indispensabile per l’utilizzo degli APR in ambito professionale e sperimentale in quanto previsto dalla normativa vigente, e dato il crescente sviluppo del settore sarà sempre più richiesto. Dopo una breve rassegna dei sistemi di terminazione attualmente presenti sul mercato viene illustrata la linea di progetto seguita, e successivamente vengono descritti i componenti principali utilizzati per la realizzazione. Sono quindi presentati i vari prototipi ideati fino ad arrivare al modello definitivo, che è stato costruito e poi testato sia al banco prova sia nell'effettivo utilizzo in volo.
Resumo:
Analisi relativa al fenomeno dell'aderenza, riguardante sia il contatto tra pneumatico e strada, sia il contatto tra ruota e rotaia. Caratteristiche e applicazioni dei sistemi di trasporto su gomma a guida vincolata, precisamente: sistema Translohr, sistemi metropolitani leggeri AGT e sistemi su monorotaia. Conclusioni inerenti pregi e difetti dell'utilizzo di ruote gommate da parte dei sistemi a guida vincolata.
Resumo:
Dalle rilevazioni PISA condotte dall'OCSE nel 2003, gli studenti finlandesi sono risultati i migliori in Europa in capacità di lettura e competenze matematiche. Vari esperti in didattica si sono quindi interrogati cercando quali aspetti rendessero eccellente il sistema finlandese. Altri, invece, hanno sostenuto che le prove PISA rilevassero solo alcune abilità senza tener conto delle conoscenze apprese a scuola, quindi il successo finlandese potrebbe essere dovuto al caso. Infatti nei test TIMSS, gli alunni finlandesi hanno avuto risultati mediocri. La tesi cerca di spiegare i “segreti” del sistema scolastico finlandese e di confrontarlo con la scuola italiana. Sono state osservate in loco le lezioni di matematica in alcune classi campione di una scuola finlandese all’ottavo e nono anno di scolarità. Si analizza la didattica sotto diversi punti di vista e si confrontano i libri di testo finlandesi e italiani su uno specifico argomento ritenuto di cruciale importanza: i polinomi. Si evidenzia che la differenza nei risultati delle rilevazioni non dipende tanto dalle differenze dei sistemi scolastici quanto all'impostazione culturale dei giovani finlandesi.
Resumo:
Lo sviluppo tecnologico e la nascita di Internet ha portato alla costituzione di un nuovo canale di comunicazione il quale costituisce, insieme all'uso dei sistemi informatici, un veicolo per la realizzazione di illeciti. Lo scopo di questa tesi di laurea è di presentare e analizzare in modo critico i principali reati informatici. Le ricerche sono state effettuate attraverso diverse banche dati, lettura di libri e vari articoli. La tesi espone al primo capitolo una panoramica storica e generale sui reati informatici. Nel secondo capitolo viene esaminata la Legge 23 dicembre 1993 n. 547. Il terzo capitolo è il cuore della tesi e analizza i principali reati informatici insieme a relativi casi giuridici. Il quarto ed ultimo capitolo, esamina l'esigenza di avere una normativa comune tra i vari stati del mondo. La trattazione fornisce un quadro d'insieme sul dilagante fenomeno dei crimini informatici, seguito da un'analisi approfondita dei singoli reati. La ricerca e lo studio dei casi reali hanno consentito di concretizzare la normativa teorica.
Resumo:
L'elaborato tratta dell'evoluzione dei sistemi di raccolta dati geografici e mappatura grazie all'utilizzo delle tecnologie informatiche e di come sia cambiato il loro utilizzo nel corso del tempo e l'utenza che ne fa uso. Viene anche trattata in maniera tecnica la struttura che compone uno di questi sistemi per permettere l'interazione via web con una mappa digitale. Si effettuano inoltre ipotesi su possibili sviluppi futuri di tali tecnologie.
Resumo:
Gli obiettivi dell'elaborato sono lo studio e la programmazione di un algoritmo di controllo di temperatura per le superfici termosaldanti di macchine per il packaging (confezionatrici in film a file multiple) prodotte dal committente, OMAG srl. L'algoritmo è implementato tramite il software SoMachineMotion v.4.2, prodotto da Schneider Electrics spa. Il controllo è di tipo in anello chiuso in retroazione, con temocoppie e resistenze di riscaldamento con modulazione PWM. Ci si è inizialmente occupati di testare su banco prova varie tipologie di regolatori: a relay, a isteresi, a ricerca diretta del duty cycle, TBH, con approccio misto TBH/integratore di Clegg, PID. I diversi metodi di regolazione sono stati valutati sulla base di una serie di metri di giudizio (precisione dell'inseguimento, prestazioni statiche e dinamiche, flessibilità, peso computazionale, facilità implementativa), pesati secondo i requisiti imposti dal committente. Le metodologie selezionate sono state PID e TBH/Clegg integrator; quest'ultima ha dato risultati assai soddisfacenti, pur essendo un metodo monoparametrico. Si sono quindi studiate diverse modalità per la taratura del regolatore PID, in particolare: tuning in anello chiuso con metodo a relay per la fase di pretuning, algoritmo di Nelder-Mead, per la ricerca diretta continua dei valori che minimizzano l'errore integrale, per un selftuning adattivo. Si è infine proceduto ad implementare le soluzioni individuate in un software robusto, che rispetti gli standard del settore e si sono inoltre sviluppate una serie di funzionalità aggiuntive, quali: modulazione software PWM, preriscaldamento, handling errori/warning, filtraggio segnali in/out. Si è addizionalmente sviluppato un modello matematico predittivo dell'evoluzione del sistema, che potrebbe servire, in un futuro sviluppo, come base per un controllo model-based in cascata al controllo in retroazione studiato.
Resumo:
Il cambiamento climatico è un fenomeno in atto a livello globale, oggi scientificamente dimostrato, irreversibile nel breve periodo, i cui effetti hanno già provocato nel Mondo ingenti perdite sociali, economiche ed ecosistemiche. Il fattore di incertezza che permane riguarda il modo in cui evolverà il clima nel futuro, che a sua volta dipende dalle quantità di gas climalteranti che continueranno ad essere immesse in atmosfera, e di conseguenza la tipologia e la dimensione degli impatti che potranno verificarsi. Di fronte all’inevitabilità del problema e dei rischi che ne derivano, l’uomo può adattarsi, come per sua natura ha sempre fatto di fronte a condizioni esterne – anche climatiche – avverse. Le strategie di adattamento al cambiamento climatico, secondo un approccio bottom-up, mirano a ridurre la vulnerabilità dei sistemi esposti alle variazioni del clima, rendendoli più preparati ad affrontare il futuro. Oltre ai fattori climatici vi sono altri elementi che incidono in modo determinante sulla vulnerabilità: sono tutte le variabili interne e specifiche di un sistema che ne definiscono il grado di sensibilità verso un potenziale danno. Lo studio ha focalizzato l’attenzione su tre Comuni dell’Appennino Faentino al fine di capire come il cambiamento climatico influisce sulle criticità naturali già esistenti e sulla vita dell’uomo e le sue attività e, conseguentemente, quali azioni potranno essere messe in atto per limitare il pericolo e i potenziali danni.
Resumo:
Negli ultimi anni le tecnologie informatiche sono state al centro di uno sviluppo esponenziale. Fra le incalcolabili innovazioni presentate, ha preso sempre più campo il paradigma per la programmazione ad agenti, che permette la realizzazione di sistemi software complessi, i quali, nell'informatica moderna, ricoprono un ruolo di fondamentale importanza. Questi sistemi, denominati autonomi, mostrano caratteristiche interessanti per scenari dinamici; essi infatti devono essere robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagire a determinate modifiche che si verificano nell'ambiente, comportandosi di conseguenza. Indicano perciò la pro-attività dell'entità presa in considerazione. In questa tesi saranno spiegate queste tipologie di sistemi, introdotte le loro caratteristiche e mostrate le loro potenzialità. Tali caratteristiche permettono di responsabilizzare i soggetti, rendendo il sistema auto-organizzato, con una migliore scalabilità e modularità, riducendo quindi le elevate esigenze di calcolo. L'organizzazione di questo documento prevede i primi capitoli atti a introdurre il mondo dei sistemi autonomi, partendo dalle definizioni di autonomia e di agenti software, concludendo con i sistemi multi-agenti, allo scopo di permettere al lettore una comprensione adatta ed esaustiva. I successivi capitoli riguardano le fasi di progettazione delle entità prese in esame, le loro forme di standardizzazione e i modelli che possono adottare, tra i quali il più conosciuto, il modello BDI. Ne seguono due diverse metodologie per l'ingegneria del software orientata agli agenti. Si conclude con la presentazione dello stato dell'arte degli ambienti di sviluppo conosciuti, contenente un'esauriente introduzione ad ognuno di essi ed una visione nel mondo del lavoro del loro apporto negli applicativi in commercio. Infine la tesi terminerà con un capitolo di conclusioni e di riflessioni sui possibili aspetti futuri.
Resumo:
Homeorhetic Assemblies indaga le potenzialità tettoniche ed architettoniche derivanti dallo studio dei sistemi biologici decentralizzati, dei loro comportamenti e delle relazioni dinamiche con la colonia in termini di processi adattativi e costruttivi continui nel tempo. La ragione di questo interesse è radicata nei principi dell’ecologia applicata al design ed alle tecnologie di fabbricazione contemporanee, che vanno al di là della mera imitazione formale: ci si è quindi chiesto come raggiungere una spazialità complessa ed articolata, omogeneità di prestazioni ed una struttura continua caratterizzata da molti elementi aventi le stesse caratteristiche di forma e materiale. L’ecologia è lo studio di un insieme di economie, ovvero rapporti di scambio, tra un organismo ed il suo ambiente e l’efficenza dei pattern distributivi che derivano da queste relazioni sono fondamentali al fine del successo evolutivo del sistema stesso. I sistemi su cui ci si è concentrati sono caratterizzati dalla capacità di creare strutture a buon mercato (con l’uso di istruzioni semplici ed un unico materiale) e ad elevato grado di complessità ed efficienza, armonizzando l’aspetto formale con l’organizzazione materica e fisiologica. Il modello di comportamento considerato riguarda le dinamiche alla base della creazione degli alveari naturali creati dalle api millifere. Queste caratteristiche sono state codificate nella programmazione di un sistema multi agente composto da agenti autonomi in grado di interagire in un ambiente eterogeneo e capaci di depositare selettivamente elementi in una struttura composta da springs e particles, periodicamente stabilizzata ed ottimizzata. In un tale sistema, a priori sono note solo le relazioni locali per i singoli agenti ed il comportamento strutturale generale, mentre gli oggetti e gli eventi emergono in maniera non predeterminata come risultato di queste interazioni nello spazio e nel tempo. I risultati appaiono estremamente complessi ed eterogenei nella loro organizzazione spaziale, pur emergendo un set di elementi identificabili nella loro specifica singolarità (come ad esempio superfici, colonne, capriate etc...) ma che generano strutture continue, e creano grande differenziazione di densità e di disposizione dei singoli elementi all’interno della struttura. La ridondanza strutturale ottenuta è una scelta deliberata e permessa dall’automatizzazione della fase di costruzione attraverso la programmazione di robot, tramite i quali si intende realizzare un prototipo fisico delle strutture ottenute.
Resumo:
La nascita della Internet of Things, come conseguenza dell'aumento della capacità di calcolo e adozione di connettività in nuovi dispositivi, ha permesso l'apporto di nuove tecnologie negli oggetti di uso quotidiano e ha cambiano il modo in cui le persone utilizzano e interagiscono con questi oggetti. La Home Automation, da sempre orientata al controllo locale e remoto di apparecchiature domestiche, non ha mai raggiunto una grande diffusione per colpa del costo elevato, una controproducente chiusura rispetto ad altri sistemi e una certa difficoltà nella sua programmazione da parte dei possibili utenti. Le possibilità offerte dalla IoT e i limiti della Home Automation hanno suggerito lo sviluppo di un sistema in grado si superare queste limitazioni sfruttando le tecnologie più adatte a integrare Smart Object e sistemi, gli uni con gli altri, in maniera semplice e rapida. Il progetto e lo sviluppo di una soluzione reale di Home Automation basata su un impianto domotico commerciale ha permesso di dimostrare come strumenti opensource e tecnologie orientate alla IoT consentano, se opportunamente integrate, di migliorare sia la fruibilità dei sistemi domotici, attraverso la maggiore apertura verso altri sistemi, sia l'interazione con l'utente che sarà in grado di creare in modo semplice e diretto scenari di utilizzo sempre nuovi.