970 resultados para DSS, Supporto decisioni, Sistemi Intelligenti, Ricerca Operativa
Resumo:
Il problema della sicurezza/insicurezza delle città, dalle grandi metropoli sino ai più piccoli centri urbani, ha sollecitato negli ultimi anni un’attenzione crescente da parte degli studiosi, degli analisti, degli organi di informazione, delle singole comunità. La delinquenza metropolitana viene oggi diffusamente considerata «un aspetto usuale della società moderna»: «un fatto – o meglio un insieme di fatti – che non richiede nessuna speciale motivazione o predisposizione, nessuna patologia o anormalità, e che è iscritto nella routine della vita economica e sociale». Svincolata dagli schemi positivistici, la dottrina criminologica ha maturato una nuova «cultura del controllo sociale» che ha messo in risalto, rispetto ad ogni visione enfatizzante del reo, l’esigenza di pianificare adeguate politiche e pratiche di prevenzione della devianza urbana attraverso «tutto l’insieme di istituzioni sociali, di strategie e di sanzioni, che mirano a ottenere la conformità di comportamento nella sfera normativa penalmente tutelata». Tale obiettivo viene generalmente perseguito dagli organismi istituzionali, locali e centrali, con diverse modalità annoverabili nel quadro degli interventi di: prevenzione sociale in cui si includono iniziative volte ad arginare la valenza dei fattori criminogeni, incidendo sulle circostanze sociali ed economiche che determinano l’insorgenza e la proliferazione delle condotte delittuose negli ambienti urbani; prevenzione giovanile con cui si tende a migliorare le capacità cognitive e relazionali del minore, in maniera tale da controllare un suo eventuale comportamento aggressivo, e ad insegnare a genitori e docenti come gestire, senza traumi ed ulteriori motivi di tensione, eventuali situazioni di crisi e di conflittualità interpersonale ed interfamiliare che coinvolgano adolescenti; prevenzione situazionale con cui si mira a disincentivare la propensione al delitto, aumentando le difficoltà pratiche ed il rischio di essere scoperti e sanzionati che – ovviamente – viene ponderato dal reo. Nella loro quotidianità, le “politiche di controllo sociale” si sono tuttavia espresse in diversi contesti – ed anche nel nostro Paese - in maniera a tratti assai discutibile e, comunque, con risultati non sempre apprezzabili quando non - addirittura – controproducenti. La violenta repressione dei soggetti ritenuti “devianti” (zero tolerance policy), l’ulteriore ghettizzazione di individui di per sé già emarginati dal contesto sociale, l’edificazione di interi quartieri fortificati, chiusi anche simbolicamente dal resto della comunità urbana, si sono rivelate, più che misure efficaci nel contrasto alla criminalità, come dei «cortocircuiti semplificatori in rapporto alla complessità dell’insieme dei problemi posti dall’insicurezza». L’apologia della paura è venuta così a riflettersi, anche fisicamente, nelle forme architettoniche delle nuove città fortificate ed ipersorvegliate; in quelle gated-communities in cui l’individuo non esita a sacrificare una componente essenziale della propria libertà, della propria privacy, delle proprie possibilità di contatto diretto con l’altro da sé, sull’altare di un sistema di controllo che malcela, a sua volta, implacabili contraddizioni. Nei pressanti interrogativi circa la percezione, la diffusione e la padronanza del rischio nella società contemporanea - glocale, postmoderna, tardomoderna, surmoderna o della “seconda modernità”, a seconda del punto di vista al quale si aderisce – va colto l’eco delle diverse concezioni della sicurezza urbana, intesa sia in senso oggettivo, quale «situazione che, in modo obiettivo e verificabile, non comporta l’esposizione a fattori di rischio», che in senso soggettivo, quale «risultante psicologica di un complesso insieme di fattori, tra cui anche indicatori oggettivi di sicurezza ma soprattutto modelli culturali, stili di vita, caratteristiche di personalità, pregiudizi, e così via». Le amministrazioni locali sono direttamente chiamate a garantire questo bisogno primario di sicurezza che promana dagli individui, assumendo un ruolo di primo piano nell’adozione di innovative politiche per la sicurezza urbana che siano fra loro complementari, funzionalmente differenziate, integrali (in quanto parte della politica di protezione integrale di tutti i diritti), integrate (perché rivolte a soggetti e responsabilità diverse), sussidiarie (perché non valgono a sostituire i meccanismi spontanei di prevenzione e controllo della devianza che si sviluppano nella società), partecipative e multidimensionali (perché attuate con il concorso di organismi comunali, regionali, provinciali, nazionali e sovranazionali). Questa nuova assunzione di responsabilità da parte delle Amministrazioni di prossimità contribuisce a sancire il passaggio epocale «da una tradizionale attività di governo a una di governance» che deriva «da un’azione integrata di una molteplicità di soggetti e si esercita tanto secondo procedure precostituite, quanto per una libera scelta di dar vita a una coalizione che vada a vantaggio di ciascuno degli attori e della società urbana nel suo complesso». All’analisi dei diversi sistemi di governance della sicurezza urbana che hanno trovato applicazione e sperimentazione in Italia, negli ultimi anni, e in particolare negli ambienti territoriali e comunitari di Roma e del Lazio che appaiono, per molti versi, esemplificativi della complessa realtà metropolitana del nostro tempo, è dedicata questa ricerca. Risulterà immediatamente chiaro come il paradigma teorico entro il quale si dipana il percorso di questo studio sia riconducibile agli orientamenti della psicologia topologica di Kurt Lewin, introdotti nella letteratura sociocriminologica dall’opera di Augusto Balloni. Il provvidenziale crollo di antichi steccati di divisione, l’avvento di internet e, quindi, la deflagrante estensione delle frontiere degli «ambienti psicologici» in cui è destinata a svilupparsi, nel bene ma anche nel male, la personalità umana non hanno scalfito, a nostro sommesso avviso, l’attualità e la validità della «teoria del campo» lewiniana per cui il comportamento degli individui (C) appare anche a noi, oggi, condizionato dalla stretta interrelazione che sussiste fra le proprie connotazioni soggettive (P) e il proprio ambiente di riferimento (A), all’interno di un particolare «spazio di vita». Su queste basi, il nostro itinerario concettuale prende avvio dall’analisi dell’ambiente urbano, quale componente essenziale del più ampio «ambiente psicologico» e quale cornice straordinariamente ricca di elementi di “con-formazione” dei comportamenti sociali, per poi soffermarsi sulla disamina delle pulsioni e dei sentimenti soggettivi che agitano le persone nei controversi spazi di vita del nostro tempo. Particolare attenzione viene inoltre riservata all’approfondimento, a tratti anche critico, della normativa vigente in materia di «sicurezza urbana», nella ferma convinzione che proprio nel diritto – ed in special modo nell’ordinamento penale – vada colto il riflesso e la misura del grado di civiltà ma anche delle tensioni e delle contraddizioni sociali che tormentano la nostra epoca. Notevoli spunti ed un contributo essenziale per l’elaborazione della parte di ricerca empirica sono derivati dall’intensa attività di analisi sociale espletata (in collaborazione con l’ANCI) nell’ambito dell’Osservatorio Tecnico Scientifico per la Sicurezza e la Legalità della Regione Lazio, un organismo di supporto della Presidenza della Giunta Regionale del Lazio al quale compete, ai sensi dell’art. 8 della legge regionale n. 15 del 2001, la funzione specifica di provvedere al monitoraggio costante dei fenomeni criminali nel Lazio.
Resumo:
l’analiticità del metodo adottato ha permesso di ottenere una precisa e puntuale conoscenza del processo costruttivo, ottimo esempio per poter analizzare e confrontare i due programmi, Ms-Project 2007 e Primavera Project Planner P6.0, oggetto della presente trattazione; per comprendere quale software aiuta il Project Manager a gestire le complessità di un progetto per soddisfare i bisogni dei clienti, ad avere un controllo più stretto sulle strutture di progetto e sui suoi requisiti di rendicontazione, nonché la comprensione di tutto ciò che può ostacolare il corretto avanzamento del programma. Quale programma aiuta le aziende a pianificare e gestire sia i singoli progetti sia il programma complessivo, a implementare e monitorare i livelli di performance necessari e valutare agevolmente l’impatto delle modifiche di programma sui piani di lavoro, sui budget, sull’utilizzazione delle risorse. Un’efficace visione d’insieme dell’intero programma, combinata con la continua verifica delle metriche di produttività, consente ai program manager di mitigare proattivamente i rischi e ottenere come risultato il puntuale rispetto dei tempi e del budget.
Resumo:
Il panorama delle aziende italiane è costellato da una moltitudine di piccoli attori largamente specializzati in mansioni definite. Sono le piccole e le medie imprese (PMI), aziende per lo più familiari e con meno di qualche decina di dipendenti, talvolta con un'importante storia alle loro spalle che, nonostante la crisi e l'avvento di Internet, sono riuscite a rimanere leader incontrastati nel loro settore. È proprio Internet infatti uno dei pericoli più grandi per esse. Settori che in passato erano presenti offline, negli uffici dove ci si rivolgeva per l'erogazione del servizio richiesto, oggi godono di una fortissima se non predominante attività online, come il settore della ricerca e della selezione del personale. Questo settore, in particolare, ha subito tutta l'influenza di Internet. Annunci, ricerche di lavoro, consulenze, sono quasi totalmente presenti attraverso il canale online. Tale cambiamento ha portato ad una scossa nel mercato, cambiando le modalità di offerta e di domanda dei servizi, determinando chi dovesse sopravvivere e chi no. È Internet stessa ad offrire uno strumento fondamentale per la rivalutazione delle proprie attività e il ritorno di piccole imprese a guidare il mercato, soprattutto nelle realtà locali. Riuscire ad avere il coraggio di affrontare il cambiamento che Internet impone, riorganizzando il proprio lavoro e la propria struttura, è oggi un trampolino di lancio per competere con i grandi head hunter del settore, con aziende del calibro di Monster che sembrano ormai irrangiungibili. Li pensiamo irrangiungibili perché dominanti nei motori di ricerca: sistemi che veicolano attraverso di essi l'informazione e che oggi sono lo strumento che tutti noi quotidianamente utilizziamo per raggiungere le aziende e i loro servizi. I motori di ricerca sono però anche il luogo più democratico della rete. Non sono i soldi o la forza numerica data dell'essere una grande azienda a determinare il posizionamento in essi. È invece la capacità di inviduare e focalizzare il proprio core business che offre la possibilità di primeggiare tra le realtà locali, siano esse a livello provinciale o regionale ad esempio. In queste realtà, in questi settori, non sono i grandi attori internazionali ad avere più possibilità di successo ma sono le attività vicine al territorio ad esserne i leader. Capire questo e agire sulle leve che permettano alle PMI di dirigere il mercato è l'obiettivo di questa tesi. La tesi inizia con una analisi dei principali motori di ricerca italiani, di come sono strutturati e come essi riescono a valutare chi possa essere presente per una determinata keyword e chi non possa esserlo ma soprattutto la qualità attribuita e la posizione assunta. L'argomentazione viene sviluppata su due differenti percorsi: il primo analitico, dove vengono presentati i motori di ricerca, i loro algoritmi, la loro storia e la loro evoluzione futura, per capire come poter essere presenti oggi e come poter esserlo domani. La seconda parte è invece operativa, analizzando Teseo: un'agenzia di ricerca e selezione del personale operante a livello regionale nell'Emilia Romagna e fortemente specializzata in alcune attività molto specifiche. E' stato prodotto un prototipo di sito studiando i punti di forza e le debolezze di sistemi come WordPress e, infine, il lavoro punta alla sua messa online, al confronto tra i risultati raggiunti dal vecchio sito e quelli ottenuti con il nuovo, con una parte finale dedicata a delle attività collaterali e alla valutazione di strategie future sul lungo periodo. Nel settore della ricerca e della selezione del personale via Internet, come può una PMI sopravvivere contro i grandi head hunter?
Resumo:
All'interno della tesi si è sviluppata una metodologia di supporto alle decisioni utile all'individuazione di determinate zone distribuite all'interno dell'area del delta del fiume Ural (Kazakistan), da considerare prioritarie ai fini della tutela della biodiversità. Il livello di priorità di queste aree è stato ricavato mediante l'aggregazione delle informazioni relative alle categorie di conservazione delle specie minacciate che popolano i diversi ecosistemi che caratterizzano l'area studio. Le categorie sono state confrontate fra loro mediante l'AHP che ha permesso di ottenere un set di pesi. L'utilizzo di tre differenti metodi di aggregazione (SAW, OWA, TOPSIS), ha permesso di ricavare un valore di conservazione che raggruppa le informazioni dei pesi attribuiti alle specie in un unico valore (CV) diverso per ogni metodo. Distribuiti i CV, sulla base della presenza delle relative specie, viene sviluppata una mappa di distribuzione dei valori di conservazione sintetici (CVS) ricavati mediante l'aggregazione dei CV in ogni punto dell'area studio. L'utilizzo di questa metodologia ha permesso di individuare, come previsto dagli obiettivi dell'elaborato, le aree a maggior valore per la conservazione degli habitat e delle specie, sulle quali focalizzare le future azioni di tutela e monitoraggio ambientale, dall'altro l'applicazione di una metodologia di supporto alle decisioni in grado di far fronte ai problemi di scarsa disponibilità e reperibilità di dati utili alla caratterizzazione dell’area di studio.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
Riconoscere un gesto, tracciarlo ed identificarlo è una operazione complessa ed articolata. Negli ultimi anni, con l’avvento massivo di interfacce interattive sempre più sofisticate, si sono ampliati gli approcci nell’interazione tra uomo e macchina. L’obiettivo comune, è quello di avere una comunicazione “trasparente” tra l’utente e il computer, il quale, deve interpretare gesti umani tramite algoritmi matematici. Il riconoscimento di gesti è un modo per iniziare a comprendere il linguaggio del corpo umano da parte della macchina. Questa disciplina, studia nuovi modi di interazione tra questi due elementi e si compone di due macro obiettivi : (a) tracciare i movimenti di un particolare arto; (b) riconoscere tale tracciato come un gesto identificativo. Ognuno di questi due punti, racchiude in sé moltissimi ambiti di ricerca perché moltissimi sono gli approcci proposti negli anni. Non si tratta di semplice cattura dell’immagine, è necessario creare un supporto, a volte molto articolato, nel quale i dati grezzi provenienti dalla fotocamera, necessitano di filtraggi avanzati e trattamenti algoritmici, in modo tale da trasformare informazioni grezze, in dati utilizzabili ed affidabili. La tecnologia riguardo la gesture recognition è rilevante come l’introduzione delle interfacce tattili sui telefoni intelligenti. L’industria oggi ha iniziato a produrre dispositivi in grado di offrire una nuova esperienza, la più naturale possibile, agli utenti. Dal videogioco, all’esperienza televisiva gestita con dei piccoli gesti, all’ambito biomedicale, si sta introducendo una nuova generazione di dispositivi i cui impieghi sono innumerevoli e, per ogni ambito applicativo, è necessario studiare al meglio le peculiarità, in modo tale da produrre un qualcosa di nuovo ed efficace. Questo lavoro di tesi ha l’obiettivo di apportare un contributo a questa disciplina. Ad oggi, moltissime applicazioni e dispositivi associati, si pongono l’obiettivo di catturare movimenti ampi: il gesto viene eseguito con la maggior parte del corpo e occupa una posizione spaziale rilevante. Questa tesi vuole proporre invece un approccio, nel quale i movimenti da seguire e riconoscere sono fatti “nel piccolo”. Si avrà a che fare con gesti classificati fini, dove i movimenti delle mani sono compiuti davanti al corpo, nella zona del torace, ad esempio. Gli ambiti applicativi sono molti, in questo lavoro si è scelto ed adottato l’ambito artigianale.
Resumo:
L’organizzazione mondiale della sanità stima che il 10% della popolazione nel mondo presenta una malattia epatica cronica. L’insufficienza epatica fulminante porta alla morte entro novantasei ore in assenza di trapianto. Questa patologia colpisce circa 2500 persone l’anno e il trapianto di fegato è l’unico trattamento efficiente, ma la mancanza di donatori ha causato un elevato tasso di mortalità in pazienti in lista di attesa per l’organo compatibile. Negli ultimi anni è cresciuta sempre più la lista d’attesa per il trapianto, mentre il numero degli innesti disponibili rimane ridotto. Non tutti i pazienti sono candidati al trapianto. Questo tipo di intervento è rischioso e richiede un trattamento d’immunosoppressione per tutta la vita. Si cercano quindi soluzioni sostitutive, ma lo sviluppo di dispositivi efficaci di assistenza epatica rimane uno dei più alti sforzi dell’ingegneria biomedica. Il fegato, infatti, svolge più di 500 funzioni diverse che sono difficili da riprodurre artificialmente. Un dispositivo di assistenza epatica deve sostituire o integrare la funzione epatica quando scende al di sotto della soglia critica del 30% del normale funzionamento. Per garantire il normale funzionamento dell’organismo, la massa di epatociti disponibile in un paziente adulto deve essere approssimativamente di circa 400g. Se questa massa è disponibile si può avere rigenerazione epatica spontanea. Questo spiega la necessità di raggiungere e garantire, comunque, un livello minimo di funzionalità epatica, al di sotto del quale non si ha né rigenerazione di epatociti (impossibilità di ripristinare l’attività metabolica del fegato), né funzionamento di altri organi del corpo, che dipendono dall’attività epatica. La ricerca e lo sviluppo di dispositivi di assistenza epatica è tesa al raggiungimento e al mantenimento della soglia minima di funzionalità; in questo modo si permette al paziente di sopravvivere fino al trapianto, quando questo è l’unica terapia possibile, oppure di poter raggiungere le condizioni di autorigenerazione spontanea nelle patologie meno gravi. La ricerca sui dispositivi di assistenza epatica risale agli anni 50, e sin da allora sono state sviluppate diverse soluzioni, che possiamo distinguere in sistemi meccanici (sistemi non biologici) e sistemi biochimici o biomeccanici (sistemi biologici). I sistemi non biologici possono avere un ruolo nel trattamento di forme specifiche d’insufficienza epatica. L’obiettivo è di fornire purificazione del sangue, ossia rimuovere tutte le sostanze che si accumulano nel sangue durante la disfunzione epatica, causando anomalie neurologiche, lesioni del fegato e di altri organi e inibizione della rigenerazione epatica. I sistemi biologici possono essere utili nel trattamento d’insufficienza epatica, in cui l’obiettivo primario è quello di fornire tutte le funzioni del fegato che sono state compromesse o perse.
Resumo:
In questa Tesi di laurea, si è affrontato il problema della mobilità veicolare in caso di nebbie. Si è quindi sviluppato un prototipo con architettura Client-Server, che si è soffermato maggiormente sull’analisi dei dati per la creazione di un percorso alternativo. Si è preso in considerazione il sistema operativo mobile di Apple, iOS7 che rappresenta uno dei Sistemi Operativi mobili maggiormente presenti sul mercato oggigiorno e che possiede un buon bacino di utenze. La parte Server è stata sviluppata secondo l’architettura REST; è presente un Server HTTP che riceve richieste e risponde in modo adeguato ai Client tramite lo scambio bidirezionale di dati in formato JSON. Nella parte Server è inclusa la base di dati: un componente molto importante poiché implementa al suo interno, parte della logica di Sistema tramite stored procedure. La parte Client è un’applicazione per dispositivi iPad e iPhone chiamata Fog Escaping; essa è stata sviluppata secondo il pattern MVC (Model- View-Controller). Fog Escaping implementa un algoritmo Greedy di ricerca del percorso alternativo, che può essere utilizzato per diverse tipologie di applicazioni.
Resumo:
Il sistema ferroviario ha sempre ricoperto un ruolo rilevante nel nostro Paese sia per il trasporto di persone, sia per il trasporto di merci: risulta, quindi, essenziale per il commercio e per il turismo. A differenza della strada in cui i veicoli circolano “a vista”, una ferrovia richiede che i sistemi di distanziamento dei treni siano indipendenti dalla visibilità dei veicoli, poiché gli spazi di frenatura sono solitamente molto maggiori della distanza di visibilità stessa. Per questo motivo i sistemi di segnalamento e sicurezza ricoprono un ruolo di primo piano. Nel tempo sono stati effettuati ingenti investimenti che hanno portato all'impiego di nuove tecnologie le quali hanno permesso la progettazione di sistemi safety critical contenenti componenti informatici hardware e software. La caratteristica principale di tali sistemi è la proprietà di non arrecare danno alla vita umana o all'ambiente: tale proprietà viene comunemente associata al termine anglosassone safety per distinguerla dall’accezione di "protezione da violazioni all'integrità del sistema" che il termine "sicurezza" usualmente assume. Lo sviluppo economico e tecnologico a cui abbiamo assistito nell’ultimo ventennio ha inevitabilmente reso tali sistemi ancora più sofisticati e di conseguenza complessi, richiedendo allo stesso tempo requisiti e garanzie di buon funzionamento sempre più marcati ed articolati. È proprio a questi motivi che si devono gli studi su quella che viene definita la dependability dei sistemi di computazione, verso cui si concentrano e convogliano buona parte degli sforzi e delle risorse in fase di ricerca e progettazione. Il lavoro di tesi che segue è stato svolto in collaborazione con due grandi imprese del territorio nazionale: RFI (Reti Ferroviarie Italiane) e Sirti. Inizialmente abbiamo interagito con RFI per entrare nell’ambiente ferroviario ed assimilarne il lessico e i bisogni. All’interno di RFI è stato effettuato un tirocinio nel quale ci siamo occupati del “processo off-line” riguardante la gestione in sicurezza di una stazione; tale attività deve essere effettuata da RFI prima della messa in esercizio di una nuova stazione. Per far questo abbiamo dovuto utilizzare i programmi di preparazione dei dati messi a disposizione da Sirti. In un secondo momento abbiamo approfondito l’argomentazione della safety interfacciandoci con Sirti, una delle società che forniscono sistemi safety critical computerizzati per il controllo delle stazioni. In collaborazione con essa ci siamo addentrati nel loro sistema scoprendo le loro scelte implementative e come hanno raggiunto i loro obiettivi di safety. Infine, ci siamo occupati dell'inserimento nel sistema di una nuova funzionalità, per aumentarne l’affidabilità e la sicurezza, e delle problematiche relative all'impiego del componente che la realizza.
Resumo:
Principale obiettivo della ricerca è quello di ricostruire lo stato dell’arte in materia di sanità elettronica e Fascicolo Sanitario Elettronico, con una precipua attenzione ai temi della protezione dei dati personali e dell’interoperabilità. A tal fine sono stati esaminati i documenti, vincolanti e non, dell’Unione europea nonché selezionati progetti europei e nazionali (come “Smart Open Services for European Patients” (EU); “Elektronische Gesundheitsakte” (Austria); “MedCom” (Danimarca); “Infrastruttura tecnologica del Fascicolo Sanitario Elettronico”, “OpenInFSE: Realizzazione di un’infrastruttura operativa a supporto dell’interoperabilità delle soluzioni territoriali di fascicolo sanitario elettronico nel contesto del sistema pubblico di connettività”, “Evoluzione e interoperabilità tecnologica del Fascicolo Sanitario Elettronico”, “IPSE - Sperimentazione di un sistema per l’interoperabilità europea e nazionale delle soluzioni di Fascicolo Sanitario Elettronico: componenti Patient Summary e ePrescription” (Italia)). Le analisi giuridiche e tecniche mostrano il bisogno urgente di definire modelli che incoraggino l’utilizzo di dati sanitari ed implementino strategie effettive per l’utilizzo con finalità secondarie di dati sanitari digitali , come Open Data e Linked Open Data. L’armonizzazione giuridica e tecnologica è vista come aspetto strategico per ridurre i conflitti in materia di protezione di dati personali esistenti nei Paesi membri nonché la mancanza di interoperabilità tra i sistemi informativi europei sui Fascicoli Sanitari Elettronici. A questo scopo sono state individuate tre linee guida: (1) armonizzazione normativa, (2) armonizzazione delle regole, (3) armonizzazione del design dei sistemi informativi. I principi della Privacy by Design (“prottivi” e “win-win”), così come gli standard del Semantic Web, sono considerate chiavi risolutive per il suddetto cambiamento.
Resumo:
La ricerca è volta a presentare un nuovo approccio integrato, a supporto di operatori e progettisti, per la gestione dell’intero processo progettuale di interventi di riqualificazione energetica e architettonica del patrimonio edilizio recente, mediante l’impiego di soluzioni tecnologiche innovative di involucro edilizio. Lo studio richiede necessariamente l’acquisizione di un repertorio selezionato di sistemi costruttivi di involucro, come base di partenza per l’elaborazione di soluzioni progettuali di recupero delle scuole appartenenti al secondo dopoguerra, in conglomerato cementizio armato, prevalentemente prefabbricate. Il progetto individua procedimenti costruttivi ecocompatibili per la progettazione di componenti prefabbricati di involucro “attivo”, adattabile ed efficiente, da assemblare a secco, nel rispetto dei requisiti prestazionali richiesti dalle attuali normative. La ricerca è finalizzata alla gestione dell’intero processo, supportato da sistemi di rilevazione geometrica, collegati a software di programmazione parametrica per la modellazione di superfici adattabili alla morfologia dei fabbricati oggetto di intervento. Tali strumenti informatizzati CAD-CAM sono connessi a macchine a controllo numerico CNC per la produzione industrializzata degli elementi costruttivi “su misura”. A titolo esemplificativo dell’approccio innovativo proposto, si formulano due possibili soluzioni di involucro in linea con i paradigmi della ricerca, nel rispetto dei principi di sostenibilità, intesa come modularità, rapidità di posa, reversibilità, recupero e riciclo di materiali. In particolare, le soluzioni innovative sono accomunate dall’applicazione di una tecnica basata sull’assemblaggio di elementi prefabbricati, dall’adozione di una trama esagonale per la tassellazione della nuova superficie di facciata, e dall’utilizzo del medesimo materiale termico isolante, plastico e inorganico, riciclato ed ecosostenibile, a basso impatto ambientale (AAM - Alkali Activated Materials). Le soluzioni progettuali proposte, sviluppate presso le due sedi coinvolte nella cotutela (Università di Bologna, Université Paris-Est) sono affrontate secondo un protocollo scientifico che prevede: progettazione del sistema costruttivo, analisi meccanica e termica, sperimentazione costruttiva, verifica delle tecniche di messa in opera e dei requisiti prestazionali.
Resumo:
Nel corso degli ultimi anni le problematiche legate al ruolo vettore delle zanzare stanno emergendo sia per quanto riguarda l’uomo che gli animali allevati e selvatici. Diversi arbovirus come West Nile, Chikungunya, Usutu e Dengue, possono facilmente spostarsi a livello planetario ed essere introdotti anche nei nostri territori dove possono dare avvio a episodi epidemici. Le tecniche di monitoraggio e sorveglianza dei Culicidi possono essere convenientemente utilizzate per il rilevamento precoce dell’attività virale sul territorio e per la stima del rischio di epidemie al fine dell’adozione delle opportune azioni di Sanità Pubblica. Io scopo della ricerca del dottorato è inserito nel contesto dei temi di sviluppo del Piano regionale sorveglianza delle malattie trasmesse da vettori in Emilia Romagna. La ricerca condotta è inquadrata prevalentemente sotto l’aspetto entomologico applicativo di utilizzo di dispositivi (trappole) che possano catturare efficacemente possibili insetti vettori. In particolare questa ricerca è stata mirata allo studio comparativo in campo di diversi tipi di trappole per la cattura di adulti di zanzara, cercando di interpretare i dati per capire un potenziale valore di efficacia/efficienza nel rilevamento della circolazione virale e come supporto alla pianificazione della rete di sorveglianza dal punto di vista operativo mediante dispositivi adeguati alle finalità d’indagine. Si è cercato di trovare un dispositivo idoneo, approfondendone gli aspetti operativi/funzionali, ai fini di cattura del vettore principale del West Nile Virus, cioè la zanzara comune, da affiancare all’unica tipologia di trappola usata in precedenza. Le prove saranno svolte sia in campo che presso il laboratorio di Entomologia Medica Veterinaria del Centro Agricoltura Ambiente “G. Nicoli” di Crevalcore, in collaborazione con il Dipartimento di Scienze e Tecnologie Agroambientali della Facoltà di Agraria dell’Università di Bologna.
Resumo:
La ricerca si colloca all’interno di un complesso intervento di cooperazione internazionale realizzato in El Salvador tra il 2009 e il 2014. Il Progetto di cooperazione è stato promosso dal Dipartimento di Scienze dell’Educazione dell’Università di Bologna e finanziato dalla Cooperazione Italiana. L’esperienza studiata rappresenta un esempio di promozione dell’inclusione nei sistemi scolastici di Paesi del Sud del mondo e si propone due obiettivi: 1) analizzare il processo di cambiamento della prospettiva di intervento promossa dalla cooperazione internazionale, evidenziando la dimensione educativa che sostiene processi di empowerment e ownership delle istituzioni locali; 2) contribuire al dibattito sull’ “inclusive education”, sostenendo processi di inclusione scolastica e sociale rivolti a tutti coloro che si trovano in situazione di svantaggio psico-fisico e/o socio-culturale. Le politiche locali del Ministero dell’Educazione dal 2009 hanno promosso un modello educativo con l’obiettivo di garantire il diritto all’educazione per tutti nella scuola pubblica. Lo studio costituisce un'indagine di tipo valutativo sul processo di sviluppo della scuola inclusiva in El Salvador, supportato dall’intervento di cooperazione internazionale. La ricerca utilizza in modo integrato strumenti di natura quantitativa (questionari) e qualitativa (interviste). Dai dati raccolti emerge come il processo di cooperazione sia stato caratterizzato dal principio della pari dignità tra esperti internazionali e autorità politiche e tecniche locali. Inoltre, la ricerca ha consentito di verificare come la cultura dell'inclusione si sia radicata in modo diffuso nella percezione della missione della scuola e il suo ruolo tra i protagonisti del sistema scolastico. Alla luce dei risultati, appare fondamentale continuare a investire sulla formazione tecnica delle figure chiave del sistema educativo; facilitare il processo di inclusione dei disabili nelle scuole regolari con una parallela trasformazione delle scuole speciali in centri di supporto all’integrazione; promuovere una sinergia di azione formativa tra il ministero, mondo accademico e della formazione professionale.
Resumo:
Coastal flooding poses serious threats to coastal areas around the world, billions of dollars in damage to property and infrastructure, and threatens the lives of millions of people. Therefore, disaster management and risk assessment aims at detecting vulnerability and capacities in order to reduce coastal flood disaster risk. In particular, non-specialized researchers, emergency management personnel, and land use planners require an accurate, inexpensive method to determine and map risk associated with storm surge events and long-term sea level rise associated with climate change. This study contributes to the spatially evaluation and mapping of social-economic-environmental vulnerability and risk at sub-national scale through the development of appropriate tools and methods successfully embedded in a Web-GIS Decision Support System. A new set of raster-based models were studied and developed in order to be easily implemented in the Web-GIS framework with the purpose to quickly assess and map flood hazards characteristics, damage and vulnerability in a Multi-criteria approach. The Web-GIS DSS is developed recurring to open source software and programming language and its main peculiarity is to be available and usable by coastal managers and land use planners without requiring high scientific background in hydraulic engineering. The effectiveness of the system in the coastal risk assessment is evaluated trough its application to a real case study.