963 resultados para Simulazione System Biology simulazione di sistemi multi-cellulari
Resumo:
Il progetto di musealizzazione dell’area archeologica di Suasa pone le basi sullo studio dei legami storici, culturali e paesaggistici che si sono instaurati sin dall’epoca romana e permangono tutt’oggi. Il primo passo parte dallo studio della Salaria Gallica: nasce così la volontà di mantenere la Salaria usufruibile da tutti, richiamando quindi l’interesse di un pubblico di vario target intorno l’area di progetto . Da questa principio si rende quindi necessaria una prima divisione dell’aria in una parte pubblica ed una privata, la prima interessata dalla costruzione di un nuovo spazio polifunzionale, la seconda destinata al mantenimento delle tracce (archeologiche e paesaggistiche). Si rende fondamentale nello spazio pubblico la costruzione di un nuovo edificio che vada ad ospitare funzioni utili alle due aree, una costruzione che è figlia di principi che caratterizzano l’area sin dall’epoca romana: la viabilità antica e le maglie generatrici. Lo spazio privato, reso tale attraverso la costruzione di un limite fisico è a sua volta diviso in due parchi: il parco archeologico e il parco agricolo. Il parco archeologico è interessato dalla costruzione di una copertura atta alla salvaguardia delle tracce di una delle istanze archeologiche di maggior valore : la Domus dei Coiedii. I principi che contraddistinguono il progetto sono quelli di riproporre, a scopo educativo, la volumetria antica della domus, mantenendo però una pianta libera che sottolinei la maestosità che fu. Si ha così una triade di parchi, legati fra loro da elementi ordinatori che nascono da una rilettura di sistemi romani ed una riproposizione di tali. Si tratta degli elementi d’ombra, che riprenderanno le strutture a sacco tipiche romane, e dei percorsi studiati per sottolineare la gerarchia delle tracce.
Resumo:
Il percorso progettuale intrapreso ci ha permesso di confrontarci con un’analisi del territorio e della storia romana, che ne ha influenzato l’evoluzione. Considerando tutti i frammenti come parte di un sistema più grande dove non è possibile comprenderne uno se non attraverso gli altri, si è deciso di valorizzare con una strategia diversa con criteri ben precisi. Così viene ristabilita la rete di connessioni e relazioni che secondo noi più aiutano nella comprensione del sito e della sua storia, cercando di integrare nel contesto la varietà di sistemi archeologici, storici e culturali che caratterizzano il sito. I resti della città romana vengono trattati con approcci diversi, a seconda del grado di conoscenza e di esperienza che possiamo avere di ogni reperto. Per le tracce meno evidenti sono stati usati interventi più leggeri, reversibili, mentre per le rovine di cui abbiamo maggiori informazioni, sono stati proposti interventi più strutturati, che accompagnino il visitatore nella loro scoperta e comprensione. Le tracce di cui non si hanno molte informazioni, sono state trattate con segni molto più leggeri e reversibili, usando una strategia di lining out che comporti l’impiego di essenze, scelte in base ad associazioni con quello che vanno a simboleggiare. Per le emergenze archeologiche evidenti, è stato pensato un percorso interno che possa renderle fruibili, lasciando le rovine più intatte possibile, mentre l’intervento di musealizzazione più importante è destinato alla domus, che contiene i resti più rilevanti e quelli che necessitano una maggiore protezione.
Resumo:
Il percorso progettuale intrapreso ci ha permesso di confrontarci con un’analisi del territorio e della storia romana, che ne ha influenzato l’evoluzione. Considerando tutti i frammenti come parte di un sistema più grande dove non è possibile comprenderne uno se non attraverso gli altri, si è deciso di valorizzare gli elementi presenti con criteri ben precisi. Così viene ristabilita la rete di connessioni e relazioni che secondo noi più aiutano nella comprensione del sito e della sua storia, cercando di integrare nel contesto la varietà di sistemi archeologici, storici e culturali che caratterizzano il sito. I resti della città romana vengono trattati con approcci diversi, a seconda del grado di conoscenza e di esperienza che possiamo avere di ogni reperto. Per le tracce meno evidenti sono stati usati interventi più leggeri, reversibili, mentre per le rovine di cui abbiamo maggiori informazioni, sono stati proposti interventi più strutturati, che accompagnino il visitatore nella loro scoperta e comprensione. Le tracce di cui non si hanno molte informazioni, sono state trattate con segni molto più leggeri e reversibili, usando una strategia di lining out che comporti l’impiego di essenze, scelte in base ad associazioni con quello che vanno a simboleggiare. Per le emergenze archeologiche evidenti, è stato pensato un percorso interno che possa renderle fruibili, lasciando le rovine più intatte possibile, mentre l’intervento di musealizzazione più importante è destinato alla domus, che contiene i resti più rilevanti e quelli che necessitano una maggiore protezione.
Resumo:
Homeorhetic Assemblies indaga le potenzialità tettoniche ed architettoniche derivanti dallo studio dei sistemi biologici decentralizzati, dei loro comportamenti e delle relazioni dinamiche con la colonia in termini di processi adattativi e costruttivi continui nel tempo. La ragione di questo interesse è radicata nei principi dell’ecologia applicata al design ed alle tecnologie di fabbricazione contemporanee, che vanno al di là della mera imitazione formale: ci si è quindi chiesto come raggiungere una spazialità complessa ed articolata, omogeneità di prestazioni ed una struttura continua caratterizzata da molti elementi aventi le stesse caratteristiche di forma e materiale. L’ecologia è lo studio di un insieme di economie, ovvero rapporti di scambio, tra un organismo ed il suo ambiente e l’efficenza dei pattern distributivi che derivano da queste relazioni sono fondamentali al fine del successo evolutivo del sistema stesso. I sistemi su cui ci si è concentrati sono caratterizzati dalla capacità di creare strutture a buon mercato (con l’uso di istruzioni semplici ed un unico materiale) e ad elevato grado di complessità ed efficienza, armonizzando l’aspetto formale con l’organizzazione materica e fisiologica. Il modello di comportamento considerato riguarda le dinamiche alla base della creazione degli alveari naturali creati dalle api millifere. Queste caratteristiche sono state codificate nella programmazione di un sistema multi agente composto da agenti autonomi in grado di interagire in un ambiente eterogeneo e capaci di depositare selettivamente elementi in una struttura composta da springs e particles, periodicamente stabilizzata ed ottimizzata. In un tale sistema, a priori sono note solo le relazioni locali per i singoli agenti ed il comportamento strutturale generale, mentre gli oggetti e gli eventi emergono in maniera non predeterminata come risultato di queste interazioni nello spazio e nel tempo. I risultati appaiono estremamente complessi ed eterogenei nella loro organizzazione spaziale, pur emergendo un set di elementi identificabili nella loro specifica singolarità (come ad esempio superfici, colonne, capriate etc...) ma che generano strutture continue, e creano grande differenziazione di densità e di disposizione dei singoli elementi all’interno della struttura. La ridondanza strutturale ottenuta è una scelta deliberata e permessa dall’automatizzazione della fase di costruzione attraverso la programmazione di robot, tramite i quali si intende realizzare un prototipo fisico delle strutture ottenute.
Resumo:
In questa tesi presentiamo una strategia, e la relativa implementazione, per il problema dell’allocazione e schedulazione, su risorse unarie, di applicazioni multi-task periodiche, composte da attività che interagiscono fra loro e la cui durata è incerta. Lo scopo che ci si propone di raggiungere, è l’implementazione di una strategia di allocazione schedulazione che garantisca robustezza ed efficienza, in quei contesti in cui la conoscenza a priori è limitata e in cui le applicazioni si ripetono indefinitamente nel tempo. Per raggiungere questo scopo, sarà usato un approccio ibrido fra statico e dinamico. Staticamente è generata una soluzione del problema, sfruttando la programmazione a vincoli, in cui le durate delle attività sono arbitrariamente fissate. Questa soluzione, non rappresenta la soluzione del nostro problema, ma è utilizzata per generare un ordinamento delle attività, che compongono le applicazioni periodiche. Dinamicamente, sfruttando l’ordinamento ottenuto, è effettuata l’allocazione e la schedulazione effettiva delle applicazioni periodiche, considerando durate variabili per le attività. L’efficienza ottenuta applicando il nostro approccio è valutata effettuando test su una vasta gamma di istanze, sia industriali, sia sintetiche appositamente generate. I risultati sono confrontati con quelli ottenuti, per le stesse istanze, applicando un approccio puramente statico. Come si vedrà, in alcuni casi, è possibile anche quadruplicale la velocità di completamento delle applicazioni trattate.
Resumo:
La possibilità di monitorare l’attività degli utenti in un sistema domotico, sia considerando le azioni effettuate direttamente sul sistema che le informazioni ricavabili da strumenti esterni come la loro posizione GPS, è un fattore importante per anticipare i bisogni e comprendere le preferenze degli utenti stessi, rendendo sempre più intelligenti ed autonomi i sistemi domotici. Mentre i sistemi attualmente disponibili non includono o non sfruttano appieno queste potenzialità, l'obiettivo di sistemi prototipali sviluppati per fini di ricerca, quali ad esempio Home Manager, è invece quello di utilizzare le informazioni ricavabili dai dispositivi e dal loro utilizzo per abilitare ragionamenti e politiche di ordine superiore. Gli obiettivi di questo lavoro sono: - Classificare ed elencare i diversi sensori disponibili al fine di presentare lo stato attuale della ricerca nel campo dello Human Sensing, ovvero del rilevamento di persone in un ambiente. - Giustificare la scelta della telecamera come sensore per il rilevamento di persone in un ambiente domestico, riportando metodi per l’analisi video in grado di interpretare i fotogrammi e rilevare eventuali figure in movimento al loro interno. - Presentare un’architettura generica per integrare dei sensori in un sistema di sorveglianza, implementando tale architettura ed alcuni algoritmi per l’analisi video all’interno di Home Manager con l’aiuto della libreria OpenCV .
Resumo:
L'obiettivo di questa tesi è analizzare e testare la programmazione reattiva, paradigma di programmazione particolarmente adatto per lo sviluppo di applicazioni altamente interattive. La progettazione di sistemi reattivi implica necessariamente l'utilizzo di codice asincrono e la programmazione reattiva (RP) offre al programmatore semplici meccanismi per gestirlo. In questa tesi, la programmazione reattiva è stata utilizzata e valutata mediante la realizzazione di un progetto real-world chiamato AvvocaTimer. Verrà affrontata la progettazione, implementazione e collaudo di una parte del sistema attraverso l'approccio reattivo e, successivamente, confrontata con la prima versione, realizzata con i metodi attualmente usati per gestire codice asincrono, per analizzare vantaggi e/o svantaggi derivanti dall'utilizzo del nuovo paradigma.
Resumo:
L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.
Resumo:
In this paper we propose a variational approach for multimodal image registration based on the diffeomorphic demons algorithm. Diffeomorphic demons has proven to be a robust and efficient way for intensity-based image registration. However, the main drawback is that it cannot deal with multiple modalities. We propose to replace the standard demons similarity metric (image intensity differences) by point-wise mutual information (PMI) in the energy function. By comparing the accuracy between our PMI based diffeomorphic demons and the B-Spline based free-form deformation approach (FFD) on simulated deformations, we show the proposed algorithm performs significantly better.
Resumo:
Complete NotI, SfiI, XbaI and BlnI cleavage maps of Escherichia coli K-12 strain MG1655 were constructed. Techniques used included: CHEF pulsed field gel electrophoresis; transposon mutagenesis; fragment hybridization to the ordered $\lambda$ library of Kohara et al.; fragment and cosmid hybridization to Southern blots; correlation of fragments and cleavage sites with EcoMap, a sequence-modified version of the genomic restriction map of Kohara et al.; and correlation of cleavage sites with DNA sequence databases. In all, 105 restriction sites were mapped and correlated with the EcoMap coordinate system.^ NotI, SfiI, XbaI and BlnI restriction patterns of five commonly used E. coli K-12 strains were compared to those of MG1655. The variability between strains, some of which are separated by numerous steps of mutagenic treatment, is readily detectable by pulsed-field gel electrophoresis. A model is presented to account for the difference between the strains on the basis of simple insertions, deletions, and in one case an inversion. Insertions and deletions ranged in size from 1 kb to 86 kb. Several of the larger features have previously been characterized and some of the smaller rearrangements can potentially account for previously reported genetic features of these strains.^ Some aspects of the frequency and distribution of NotI, SfiI, XbaI and BlnI cleavage sites were analyzed using a method based on Markov chain theory. Overlaps of Dam and Dcm methylase sites with XbaI and SfiI cleavage sites were examined. The one XbaI-Dam overlap in the database is in accord with the expected frequency of this overlap. The occurrence of certain types of SfiI-Dcm overlaps are overrepresented. Of the four subtypes of SfiI-Dcm overlap, only one has a partial inhibitory effect on the activity of SfiI. Recognition sites for all four enzymes are rarer than expected based on oligonucleotide frequency data, with this effect being much stronger for XbaI and BlnI than for NotI and SfiI. The latter two enzyme sites are rare mainly due to apparent negative selection against GGCC (both) and CGGCCG (NotI). The former two enzyme sites are rare mainly due to effects of the VSP repair system on certain di-tri- and tetranucleotides, most notably CTAG. Models are proposed to explain several of the anomalies of oligonucleotide distribution in E. coli, and the biological significance of the systems that produce these anomalies is discussed. ^
Resumo:
AIM Transcatheter aortic valve implantation has become an alternative to surgery in higher risk patients with symptomatic aortic stenosis. The aim of the ADVANCE study was to evaluate outcomes following implantation of a self-expanding transcatheter aortic valve system in a fully monitored, multi-centre 'real-world' patient population in highly experienced centres. METHODS AND RESULTS Patients with severe aortic stenosis at a higher surgical risk in whom implantation of the CoreValve System was decided by the Heart Team were included. Endpoints were a composite of major adverse cardiovascular and cerebrovascular events (MACCE; all-cause mortality, myocardial infarction, stroke, or reintervention) and mortality at 30 days and 1 year. Endpoint-related events were independently adjudicated based on Valve Academic Research Consortium definitions. A total of 1015 patients [mean logistic EuroSCORE 19.4 ± 12.3% [median (Q1,Q3), 16.0% (10.3, 25.3%)], age 81 ± 6 years] were enrolled. Implantation of the CoreValve System led to a significant improvement in haemodynamics and an increase in the effective aortic valve orifice area. At 30 days, the MACCE rate was 8.0% (95% CI: 6.3-9.7%), all-cause mortality was 4.5% (3.2-5.8%), cardiovascular mortality was 3.4% (2.3-4.6%), and the rate of stroke was 3.0% (2.0-4.1%). The life-threatening or disabling bleeding rate was 4.0% (2.8-6.3%). The 12-month rates of MACCE, all-cause mortality, cardiovascular mortality, and stroke were 21.2% (18.4-24.1%), 17.9% (15.2-20.5%), 11.7% (9.4-14.1%), and 4.5% (2.9-6.1%), respectively. The 12-month rates of all-cause mortality were 11.1, 16.5, and 23.6% among patients with a logistic EuroSCORE ≤10%, EuroSCORE 10-20%, and EuroSCORE >20% (P< 0.05), respectively. CONCLUSION The ADVANCE study demonstrates the safety and effectiveness of the CoreValve System with low mortality and stroke rates in higher risk real-world patients with severe aortic stenosis.
Resumo:
BACKGROUND Oesophageal adenocarcinoma or Barrett's adenocarcinoma (EAC) is increasing in incidence and stratification of prognosis might improve disease management. Multi-colour fluorescence in situ hybridisation (FISH) investigating ERBB2, MYC, CDKN2A and ZNF217 has recently shown promising results for the diagnosis of dysplasia and cancer using cytological samples. METHODS To identify markers of prognosis we targeted four selected gene loci using multi-colour FISH applied to a tissue microarray containing 130 EAC samples. Prognostic predictors (P1, P2, P3) based on genomic copy numbers of the four loci were statistically assessed to stratify patients according to overall survival in combination with clinical data. RESULTS The best stratification into favourable and unfavourable prognoses was shown by P1, percentage of cells with less than two ZNF217 signals; P2, percentage of cells with fewer ERBB2- than ZNF217 signals; and P3, overall ratio of ERBB2-/ZNF217 signals. Median survival times for P1 were 32 vs 73 months, 28 vs 73 months for P2; and 27 vs 65 months for P3. Regarding each tumour grade P2 subdivided patients into distinct prognostic groups independently within each grade, with different median survival times of at least 35 months. CONCLUSIONS Cell signal number of the ERBB2 and ZNF217 loci showed independence from tumour stage and differentiation grade. The prognostic value of multi-colour FISH-assays is applicable to EAC and is superior to single markers.
Resumo:
Background: Individuals with type 1 diabetes (T1D) have to count the carbohydrates (CHOs) of their meal to estimate the prandial insulin dose needed to compensate for the meal’s effect on blood glucose levels. CHO counting is very challenging but also crucial, since an error of 20 grams can substantially impair postprandial control. Method: The GoCARB system is a smartphone application designed to support T1D patients with CHO counting of nonpacked foods. In a typical scenario, the user places a reference card next to the dish and acquires 2 images with his/her smartphone. From these images, the plate is detected and the different food items on the plate are automatically segmented and recognized, while their 3D shape is reconstructed. Finally, the food volumes are calculated and the CHO content is estimated by combining the previous results and using the USDA nutritional database. Results: To evaluate the proposed system, a set of 24 multi-food dishes was used. For each dish, 3 pairs of images were taken and for each pair, the system was applied 4 times. The mean absolute percentage error in CHO estimation was 10 ± 12%, which led to a mean absolute error of 6 ± 8 CHO grams for normal-sized dishes. Conclusion: The laboratory experiments demonstrated the feasibility of the GoCARB prototype system since the error was below the initial goal of 20 grams. However, further improvements and evaluation are needed prior launching a system able to meet the inter- and intracultural eating habits.
Resumo:
M. Franḳenṭal