969 resultados para percezione problema di Cauchy stabilità metodo di Lyapunov


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A fronte della frammentarietà e della confusione semantica della città contemporanea, la ricerca sui ‘Luoghi di identità e spazi del sacro nella città europea contemporanea’ ha inteso affrontare il tema della morfologia urbana in termini di significato. La focalizzazione sui temi dell’identità e del sacro nella città odierna è stata intesa quale modalità per tentare di andare alla radice dell’irrisolto problema di mancanza di senso che affligge la compagine urbana contemporanea e per cercare di individuare le cause e, quindi, le possibili azioni necessarie a riportare il costruito nell’ambito della relazione significante. Il campo di indagine è quello delle aree periferiche europee, ma la ricerca si muove da considerazioni di ordine generale relativamente alle reti di relazioni che l’essere umano instaura con il mondo circostante. Il lavoro sviluppa un primo inquadramento del tema di carattere generale, con un riferimento sistematico alla letteratura scientifica, individuando attraverso un sintetico excursus storico, i principi fondamentali della costruzione dell’immagine spaziale e del suo evolversi nel tempo. Su questa base i tre concetti di ‘centralità’, ‘identità’ e ‘sacro’, sono intesi come i cardini del discorso circa gli ambiti di significato e, sulla base di studi di alcune esperienze europee ritenute particolarmente esemplificative, la trattazione di questi tre temi arriva a proporre alcune considerazioni in merito alle caratteristiche che il contesto urbano deve avere per manifestarsi come luogo di costruzione di una identità personale e comunitaria. Nella consapevolezza che l’ampiezza dei temi considerati non ne consente una trattazione esaustiva, le considerazioni fatte sono da intendersi quali spunti di riflessione a riguardo dei metodi e delle modalità di relazione che sono ritenute necessarie per la costruzione di spazi di riferimento orientativo, identitario e socializzante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni le Web application stanno assumendo un ruolo sempre più importante nella vita di ognuno di noi. Se fino a qualche anno fa eravamo abituati ad utilizzare quasi solamente delle applicazioni “native”, che venivano eseguite completamente all’interno del nostro Personal Computer, oggi invece molti utenti utilizzano i loro vari dispositivi quasi esclusivamente per accedere a delle Web application. Grazie alle applicazioni Web si sono potuti creare i cosiddetti social network come Facebook, che sta avendo un enorme successo in tutto il mondo ed ha rivoluzionato il modo di comunicare di molte persone. Inoltre molte applicazioni più tradizionali come le suite per ufficio, sono state trasformate in applicazioni Web come Google Docs, che aggiungono per esempio la possibilità di far lavorare più persone contemporanemente sullo stesso documento. Le Web applications stanno assumendo quindi un ruolo sempre più importante, e di conseguenza sta diventando fondamentale poter creare delle applicazioni Web in grado di poter competere con le applicazioni native, che siano quindi in grado di svolgere tutti i compiti che sono stati sempre tradizionalmente svolti dai computer. In questa Tesi ci proporremo quindi di analizzare le varie possibilità con le quali poter migliorare le applicazioni Web, sia dal punto di vista delle funzioni che esse possono svolgere, sia dal punto di vista della scalabilità. Dato che le applicazioni Web moderne hanno sempre di più la necessità di poter svolgere calcoli in modo concorrente e distribuito, analizzeremo un modello computazionale che si presta particolarmente per progettare questo tipo di software: il modello ad Attori. Vedremo poi, come caso di studio di framework per la realizzazione di applicazioni Web avanzate, il Play framework: esso si basa sulla piattaforma Akka di programmazione ad Attori, e permette di realizzare in modo semplice applicazioni Web estremamente potenti e scalabili. Dato che le Web application moderne devono avere già dalla nascita certi requisiti di scalabilità e fault tolerance, affronteremo il problema di come realizzare applicazioni Web predisposte per essere eseguite su piattaforme di Cloud Computing. In particolare vedremo come pubblicare una applicazione Web basata sul Play framework sulla piattaforma Heroku, un servizio di Cloud Computing PaaS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il problema dell'antibiotico-resistenza è un problema di sanità pubblica per affrontare il quale è necessario un sistema di sorveglianza basato sulla raccolta e l'analisi dei dati epidemiologici di laboratorio. Il progetto di dottorato è consistito nello sviluppo di una applicazione web per la gestione di tali dati di antibiotico sensibilità di isolati clinici utilizzabile a livello di ospedale. Si è creata una piattaforma web associata a un database relazionale per avere un’applicazione dinamica che potesse essere aggiornata facilmente inserendo nuovi dati senza dover manualmente modificare le pagine HTML che compongono l’applicazione stessa. E’ stato utilizzato il database open-source MySQL in quanto presenta numerosi vantaggi: estremamente stabile, elevate prestazioni, supportato da una grande comunità online ed inoltre gratuito. Il contenuto dinamico dell’applicazione web deve essere generato da un linguaggio di programmazione tipo “scripting” che automatizzi operazioni di inserimento, modifica, cancellazione, visualizzazione di larghe quantità di dati. E’ stato scelto il PHP, linguaggio open-source sviluppato appositamente per la realizzazione di pagine web dinamiche, perfettamente utilizzabile con il database MySQL. E’ stata definita l’architettura del database creando le tabelle contenenti i dati e le relazioni tra di esse: le anagrafiche, i dati relativi ai campioni, microrganismi isolati e agli antibiogrammi con le categorie interpretative relative al dato antibiotico. Definite tabelle e relazioni del database è stato scritto il codice associato alle funzioni principali: inserimento manuale di antibiogrammi, importazione di antibiogrammi multipli provenienti da file esportati da strumenti automatizzati, modifica/eliminazione degli antibiogrammi precedenti inseriti nel sistema, analisi dei dati presenti nel database con tendenze e andamenti relativi alla prevalenza di specie microbiche e alla chemioresistenza degli stessi, corredate da grafici. Lo sviluppo ha incluso continui test delle funzioni via via implementate usando reali dati clinici e sono stati introdotti appositi controlli e l’introduzione di una semplice e pulita veste grafica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il virus dell’Epatite E (HEV) e i calicivirus (norovirus e sapovirus) causano rispettivamente epatite acuta e gastroenterite. Questi virus sono considerati agenti eziologici emergenti rappresentando un problema di sanità pubblica e di sicurezza alimentare. Per HEV, è ormai confermata la trasmissione zoonotica, e il suino è considerato il principale serbatoio asintomatico. Norovirus e sapovirus infettano sia i bambini che gli adulti. Sebbene questi virus siano stati identificati anche negli animali, la possibile trasmissione zoonotica non è stata dimostrata in modo conclusivo. Il lavoro sperimentale condotto durante il Dottorato di Ricerca è stato focalizzato sullo studio degli aspetti biologici ed epidemiologici dell’infezioni causate da HEV e da calicivirus. Per la prima volta in Italia, i risultati ottenuti hanno dimostrato la presenza del virus HEV nei fegati di suini in fase di macellazione ed hanno confermato, attraverso la ricerca di anticorpi, un’elevata esposizione degli animali al virus. Inoltre, mediante la produzione di antigeni e reattivi immunologici, sono stati messi a punto test diagnostici per la ricerca di anticorpi contro HEV nel suino e nei cinghiali. Il lavoro svolto per la ricerca di calicivirus nel suino e nel bovino ha dimostrato la circolazione dei sapovirus in popolazioni di suini asintomatici e la presenza di norovirus nei vitelli affetti da diarrea acuta.Sono stati inoltre sviluppati reattivi immunologici, utilizzando proteine del capside di norovirus umano e bovino espresse con il sistema ricombinante baculovirus. Questi hanno permesso di evidenziare la presenza di anticorpi contro norovirus umano e bovino, in sieri di veterinari professionalmente esposti. Inoltre, sono stati utilizzati per sviluppare metodi per la concentrazione dei virus da matrici a bassa concentrazione.Infine, le VLP sono state utilizzate per valutare l’attivazione del sistema immunitario umano ex vivo. I risultati hanno dimostrato che le VLP di NoV stimolano il sistema immunitario attivando risposte di tipo Th1 e Th2 .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesi prende avvio all’interno del Laboratorio di Sostituzione di tessuto urbano del professor Antonio Esposito. Il tema è quello, diventato sempre più attuale negli ultimi decenni, della relazione tra gli spazi delle infrastrutture ed il paesaggio urbano. Gli spazi della mobilità finiscono per diventare degli spazi di risulta che anzichè creare dei collegamenti, vocazione principale delle infrastrutture per la mobilità nello specifico, diventano delle fratture all’interno della città, che dividono anzichè unire. L’area di intervento è a Viserba, località balneare nelle vicinanze di Rimini, caratterizzata da una crescita del tessuto urbano esponenziale sviluppatasi interamente nell’ultimo secolo, ma il problema interessa tutte le località sulla costa romagnola, tagliate in due dal passaggio della ferrovia. Il nuovo piano strategico del Comune di Rimini si pone il problema di offrire, finalmente, alla città un sistema della mobilità che consenta di fare a meno dell’automobile non a causa di meri divieti, ma per l’esistenza di valide alternative di trasporto che, consentendo eguale efficacia nella mobilità, riportano ad una più giusta dimensione relazionale le funzioni dell’abitare e del vivere città e territorio. Nella prospettiva di liberare dal mezzo privato la fascia turistica del litorale e di allentare la pressione automobilistica sulle periferie, il tracciato della ferrovia assume ancor più il valore di asse centrale distributivo per il sistema di trasporto pubblico di massa. Condizione fondamentale è che la permeabilità fra le zone a mare e a monte della ferrovia sia incrementata, attraverso la creazione di adeguati ed ampi attraversamenti urbani (non semplicisottopassaggi) che si appoggino ad “una trama verde” di percorsi e spazi di ricucitura della città con il suo mare. Questo è il contesto in cui si inserisce il progetto, che quindi risulta essere di grande attinenza alla contemporaneità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sommario Il progetto descritto in questo documento consiste nella realizzazione di una prima applicazione pratica di uno specifico studio di ricerca rivolto al ripristino di reti wireless in scenari post-calamità naturali. In principio è stata descritta un’ampia analisi delle problematiche di rete che si vengono a creare in seguito ad eventi catastrofici. Successivamente, analizzando le varie tecniche e tecnologie oggetto di studio di diversi gruppi di ricerca, si è scelto di collaborare con il progetto STEM-Mesh, essendo ancora in fase sperimentale, il quale affronta il problema di ristabilire la connettività di rete in questi particolari scenari, attraverso l’utilizzo di tecnologie Cognitive Radio (CR), mobilità controllata e principi di reti auto-organizzanti. Di questo primo approccio pratico sono state poi descritte le fasi di progettazione, implementazione e testing. Nella fase di progettazione sono state studiate le componenti hardware e software che rispettassero il più possibile i requisiti e le caratteristiche dei dispositivi “staminali” STEM-Node cuore del progetto STEM-Mesh, ovvero dei dispositivi wireless altamente auto-riconfiguranti ed auto-organizzanti che possono diventare dispositivi sostituivi ai nodi compromessi in una rete, riconfigurandosi appunto in base alle funzionalità interrotte. Nella fase di implementazione si è passati alla stesura del codice, in Python e Wiring, abilitante il dispositivo STEM-Node. Infine nella fase di testing si è verificato che i risultati fossero quelli desiderati e che il sistema realizzato funzionasse come previsto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il concetto di situatedness applicato ad un sistema multi-agente distribuito può essere riformulato come problema di coordinazione fra i componenti del sistema e le risorse ambientali. Per poter garantire e governare la coordinazione delle parti, viene esteso il modello di coordinazione TuCSoN arricchendo il linguaggio di coordinazione e l'architettura per la comunicazione verso l'ambiente introducendo il concetto di artefatto d'ambiente. In questo elaborato viene definita l'estensione Situated ReSpecT, la nuova componente Transducer e la sua interazione con le Probe, tramite un analisi teorica che si conclude con una verifica pratica su piattaforma Arduino.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro si è affrontata la definizione e la caratterizzazione di una misura di entropia di singolo nodo nell’ambito della teoria statistica dei network, per ottenere informazioni a livello di singolo nodo a fini di analisi e classificazione. Sono state introdotte e studiate alcune proprietà di questi osservabili in quanto la Network Entropy, precedentemente definita e utilizzata nello stesso contesto, fornisce un’informazione globale a livello dell’intero network. I risultati delle analisi svolte con questa definizione sono stati confrontati con una seconda definizione di entropia di singolo nodo proveniente dalla letteratura, applicando entrambe le misure allo stesso problema di caratterizzazione di due classi di nodi all’interno di un network

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi di laurea tratta delle partizioni di un intero positivo. La tesi viene suddivisa in tre capitoli: nel primo capitolo definirò cosa significa scomporre additivamente un intero positivo e come si può rappresentare una partizione cioè utilizzando diagrammi, chiamati \textit{diagrammi di Ferrers}, o tabelle, chiamate \textit{tableau di Young}, si possono rappresentare graficamente partizioni. In seguito, in questo capitolo, verrà definita la funzione di partizione e, infine, tratterò delle partizioni ordinate. Il secondo capitolo ha carattere storico: infatti, mostra come cinque famosi matematici, Eulero, Ramanujan e Hardy, Hans Rademacher e Ken Ono, nel tempo abbiano affrontato il problema di trovare una formula matematica che meglio rappresenti la funzione di partizione. Il terzo ed ultimo capitolo riguarda le applicazioni delle partizioni, cioè come esse abbiano una relazione con le classi di coniugio nel gruppo simmetrico $S_{n}$ e con le classificazioni dei gruppi abeliani di ordine $p^{n}$, con p un numero primo. Di alcune affermazioni ( o teoremi ) nei capitoli seguenti non è stata riportata la dimostrazione; in questi casi si rimanda direttamente alle corrispondenti citazioni bibliografiche. 

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro si pone come obiettivo l'approfondimento della natura e delle proprietà dei polinomi espressi mediante la base di Bernstein. Introdotti originariamente all'inizio del '900 per risolvere il problema di approssimare una funzione continua su un intervallo chiuso e limitato della retta reale (Teorema di Stone-Weierstrass), essi hanno riscosso grande successo solo a partire dagli anni '60 quando furono applicati alla computer-grafica per costruire le cosiddette curve di Bezier. Queste, ereditando le loro proprietà geometriche da quelle analitiche dei polinomi di Bernstein, risultano intuitive e facilmente modellabili da un software interattivo e sono alla base di tutti i più moderni disegni curvilinei: dal design industriale, ai sistemi CAD, dallo standard SVG alla rappresentazione di font di caratteri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi ci si occuperà di presentare alcuni aspetti salienti della teoria spettrale per gli operatori limitati negli spazi di Hilbert. Nel primo capitolo verranno presentate alcune nozioni fondamentali di analisi funzionale, necessarie per lo studio degli operatori. Il secondo capitolo si occupa invece di analizzare la teoria spettrale per operatori compatti. In particolare, verrà presentato il Teorema Spettrale per Operatori Normali Compatti e il Teorema dell'Alternativa di Fredholm. In seguito verrà applicata tale teoria alla risolubilità del problema di Dirichlet. Nel terzo capitolo verrà esteso quanto ottenuto per gli operatori compatti ad operatori limitati autoaggiunti e per gli operatori normali limitati, passando attraverso le famiglie spettrali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’ictus è un importante problema di salute pubblica, è causa di morte e disabilità nella popolazione anziana. La necessità di strategie di prevenzione secondaria e terziaria per migliorare il funzionamento post-ictus e prevenire o ritardare altre condizioni disabilitanti, ha portato l’Italia a sviluppare un intervento di Attività Fisica Adattata (AFA) per l’ictus, che permettesse di migliorare gli esiti della riabilitazione. Obiettivo dello studio è di valutare se l’AFA unita all’Educazione Terapeutica (ET), rispetto al trattamento riabilitativo standard, migliora il funzionamento e la qualità di vita in pazienti con ictus. Studio clinico non randomizzato, in cui sono stati valutati 229 pazienti in riabilitazione post-ictus, 126 nel gruppo sperimentale (AFA+ET) e 103 nel gruppo di controllo. I pazienti sono stati valutati al baseline, a 4 e a 12 mesi di follow-up. Le misure di esito sono il cambiamento a 4 mesi di follow-up (che corrisponde a 2 mesi post-intervento nel gruppo sperimentale) di: distanza percorsa, Berg Balance Scale, Short Physical Performance Battery, e Motricity Index. Le variabili misurate a 4 e a 12 mesi di follow-up sono: Barthel Index, Geriatric Depression Scale, SF-12 e Caregiver Strain Index. La distanza percorsa, la performance fisica, l’equilibrio e il punteggio della componente fisica della qualità di vita sono migliorate a 4 mesi nel gruppo AFA+ET e rimasti stabili nel gruppo di controllo. A 12 mesi di follow-up, il gruppo AFA+ET ottiene un cambiamento maggiore, rispetto al gruppo di controllo, nell’abilità di svolgimento delle attività giornaliere e nella qualità di vita. Infine il gruppo AFA+ET riporta, nell’ultimo anno, un minor numero di fratture e minor ricorso a visite riabilitative rispetto al gruppo di controllo. I risultati confermano che l’AFA+ET è efficace nel migliorare le condizioni cliniche di pazienti con ictus e che gli effetti, soprattutto sulla riabilitazione fisica, sono mantenuti anche a lungo termine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si pone il problema di studiare lo stato dell’arte degli impianti di produzione farmaceutici e di formulare, in base ai risultati ottenuti, uno o più possibili ipotesi di recupero d’energia, con particolare attenzione ai fluidi termo-vettori: in altri termini, questa tesi si prefissa l’obiettivo di realizzare un sistema utile e concreto per recuperare parte dell’energia termica, che nell'attuale concezione dell’impianto e dei suoi macchinari andrebbe smaltita e persa nei fluidi in uscita dal processo, e convertirla in energia riutilizzabile. Come modello per lo studio del problema, si fa riferimento a un tipico layout di produzione del farmaco, progettato e dimensionato dalla ditta IMA S.p.A. , settore Active, il quale entra come “materiale grezzo” ed esce come prodotto finito. L’azienda concepisce e progetta tipicamente le sue macchine e, di conseguenza, i suoi impianti in base alla quantità di prodotto che mediamente ogni ciclo produttivo lavorerà: in parole povere, gli impianti della divisione Active di IMA S.p.A. sono dimensionati e suddivisi per “taglie”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.