997 resultados para pushover,strutture irregolari,analisi IDA
Resumo:
Introduzione alle strategie di robotic patrolling e analisi delle stesse. Applicazione ad uno scenario di una strategia e realizzazione di un robot patroller.
Resumo:
La malattia da reflusso gastroesofageo (GERD) si divide in due categorie: malattia non erosiva (NERD) ed erosiva (ERD). Questi due fenotipi di GERD mostrano caratteristiche patofisiologiche e cliniche differenti. NERD è la forma più comune. Anche se ERD e NERD sono difficili da distinguere a livello clinico, la forma NERD possiede caratteristiche fisiologiche, patofisiologiche, anatomiche, e istologiche uniche. La replicazione cellulare dello strato basale si pensa sia una delle cause implicate nella resistenza della mucosa e nella difesa strutturale dell’epitelio. Diversi studi hanno dimostrato che la proliferazione cellulare è ridotta nella mucosa esofagea esposta ad insulti acidi e peptici cronici, in pazienti GERD, in più uno studio recente ha dimostrato che il recettore per i cannabinoidi CB1 era implicato nella riparazione delle ferite nella mucosa del colon. Sulla base di questi dati abbiamo valutato la presenza del recettore CB1 in biopsie della mucosa esofagea, di pazienti ERD, NERD e di controlli sani, tramite analisi Western Blot, Immunoistochimica e Real-Time PCR, dimostrando per la prima volta la presenza di questo recettore nell’epitelio dell’esofago e una riduzione dei suoi livelli di espressione nei pazienti ERD, camparati con i NERD e con i controlli sani. Successivamente, per chiarire meglio i meccanismi molecolari che caratterizzano ERD e NERD, abbiamo effettuato un analisi proteomica con la tecnica shotgun, la quale ha evidenziato un patter proteico di 33 proteine differenzialmente espresse in pazienti NERD vs ERD, sette delle quali confermate in wester Blot, e quattro in immunoistochimica. Concludendo i nostri risultati hanno confermato che ERD e NERD sono due entità distinte a livello proteico, e hanno proposto dei candidati biomarker per la diagnosi differenziale di ERD e NERD.
Resumo:
Scopo del presente lavoro di tesi è lo studio dei processi di fotogenerazione e trasporto di carica in film sottili di Rubrene trasferiti su substrati differenti, attraverso un’analisi degli spettri di fotocorrente ottenuti in laboratorio. I cristalli sono studiati realizzando contatti ohmici mediante deposito di vapori di oro sul campione. Le prestazioni ottenute variano a seconda del substrato; i segnali di fotocorrente migliori derivano dai campioni su vetro. L’andamento qualitativo è il medesimo al variare dei cristalli, così come i valori di energia dei fotoni incidenti corrispondenti ai picchi massimi del segnale. Si evidenziano tuttavia distribuzioni di difetti leggermente differenti. Nell’analisi comparata tra gli spettri di assorbimento e fotocorrente si riscontra un comportamento antibatico; vari tentativi di simulazione e applicazione dei modelli finora noti in letteratura per i cristalli organici (sebbene non ve ne siano per i film sottili di Rubrene), mostrano la completa inapplicabilità degli stessi al presente caso di studio evidenziando la necessità di modelli teorici specificamente studiati per la nanoscala. Una ragionevole motivazione di tale scontro risiede proprio nel conflitto tra gli ordini di grandezza dei parametri delle strutture in esame e le leggi sulle quali si basano le analisi proposte in letteratura, incongruenza che non appare invece su scala micrometrica, ove tali modelli sono stati sviluppati.
Resumo:
E' stato considerato un High-Dislocation Density Light Emitting Diode (HDD LED)ed è stato analizzato l'andamento di corrente a varie temperature. Dai risultati ottenuti è stato possibile ricavare il coefficiente di Poole-Frenkel, e da esso risalire alla densità di dislocazioni del dispositivo.
Resumo:
In questo lavoro di tesi sono stati analizzati tre progetti educativi proposti a livello della scuola superiore in cui si è posta l'attenzione sull'educazione alla sostenibilità, inserendola però in un contesto più vasto di educazione scientifica.
Resumo:
Nella presente tesi è proposta una metodologia per lo studio e la valutazione del comportamento sismico di edifici a telaio. Il metodo prevede la realizzazione di analisi non-lineari su modelli equivalenti MDOF tipo stick, in accordo alla classificazione data nel report FEMA 440. Gli step per l’applicazione del metodo sono descritti nella tesi. Per la validazione della metodologia si sono utilizzati confronti con analisi time-history condotte su modelli tridimensionali dettagliati delle strutture studiate (detailed model). I parametri ingegneristici considerati nel confronto, nell’ottica di utilizzare il metodo proposto in un approccio del tipo Displacement-Based Design sono lo spostamento globale in sommità, gli spostamenti di interpiano, le forze di piano e la forza totale alla base. I risultati delle analisi condotte sui modelli stick equivalenti, mostrano una buona corrispondenza, ottima in certi casi, con quelli delle analisi condotte sui modelli tridimensionali dettagliati. Le time-history realizzate sugli stick model permettono però, un consistente risparmio in termini di onere computazionale e di tempo per il post-processing dei risultati ottenuti.
Resumo:
uesto progetto di tesi ha come obiettivo la creazione di una applicazio- ne mobile collaborativa per il monitoraggio e l’analisi dei viaggi ferroviari. Collaborativa perché per poter adempiere alla sua funzione è necessario che i suoi utilizzatori partecipino attivamente all’accrescimento del database di dati, supponendo che con più dati raccolti sia maggiore l’accuratezza di que- st’ultimi. Sarà un’applicazione di monitoraggio nel senso che di ogni singolo treno verranno presi in esame una serie di aspetti considerati utili ai fini della valutazione della qualità del servizio offerto. Analisi perché, una volta raccolti, questi dati possono essere utilizzati sia da coloro che viaggiano in treno -per decidere se prendere un treno piuttosto che un altro- sia da coloro che gestiscono la rete in modo da stilare delle statistiche o per eseguire degli interventi mirati su di una specifica tratta o anche per potenziare il servizio clienti a bordo del treno.
Resumo:
L’idea alla base della tesi è quella di sfruttare l’espressività di rappresentazione grafica della libreria D3 per mettere a punto un’applicazione web che dia la possibilità all’utente di creare dei grafici interattivi in maniera semplice e automatica. A tal proposito, si è subito considerato il dominio dell’applicazione, rappresentato dai dati da visualizzare in forma grafica, in modo da sviluppare un prodotto che, a differenza degli altri generatori di grafici, permetta l’elaborazione dei dataset reali, quelli cioè pubblicati sul web dai vari enti specializzati; un’applicazione che quindi indipendentemente dalla forma in cui i dati si presentano, riesca a rappresentarne il contenuto.
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.
Resumo:
Viene implementato un algoritmo di ritrasmissione dei pacchetti nel protocollo TCP. Lo studio viene fatt utilizzando il simulatore OMNET++ e il framework INET
Resumo:
Questa tesi consiste nello sviluppo di codice per un applicativo esistente. Tale applicativo si occupa di simulazione di protocolli di rete su varie topologie di rete. La parte di cui si occupa questa tesi è la fase di analisi dei file di traccia generati. Tale fase è una delle tre fasi dell'applicativo. I file di traccia contengono informazioni che permettono di stimare due grandezze, copertura e ritardo. Per copertura si intende una media fra tutte le coperture. Ogni copertura sarà relativa ad uno specifico nodo della rete. Per copertura di uno specifico nodo della rete si intende la parte di messaggi arrivati a quel nodo relativamente a tutti i messaggi generati all'interno della rete. Per ritardo si intende la media del numero di salti che avvengono per arrivare ai vari nodi che compongono la rete. I valori calcolati, mediante le informazioni contenute nei trace file, vengono poi memorizzati su dei file. Oltre al calcolo di queste specifiche grandezze, la tesi include anche una possibile soluzione relativa al parallelismo dei processi. Tale soluzione mira ad avere un numero, stabilito in base alla memoria principale libera, di processi che vengono eseguiti in maniera parallela.
Resumo:
Negli ultimi anni si è verificato un enorme cambiamento per quanto riguarda le tecnologie utilizzate nello sviluppo di applicazioni, spostandosi sempre verso soluzioni più innovative. In particolare l'utente, diventando sempre più esperto, si ritrova ad essere sempre più esigente. Qui nasce la necessità di modernizzare la gestione degli appuntamenti con la clientela da parte delle attività commerciali tramite l'uso di uno scheduler online. Lo scopo di questo documento è quello di illustrare come è stato realizzato un prototipo di questo sistema, partendo dalle interviste ai committenti e analisi dei relativi problemi, per arrivare poi alla sua realizzazione, utilizzando tecnologie e design innovativi e di ultima generazione.
Resumo:
Negli ultimi decenni sono stati studiati sul mar Mediterraneo dei fenomeni con caratteristiche comuni a quelle dei cicloni tropicali, chiamati medicane. L'obiettivo principale di questa tesi è quello di migliorare le attuali conoscenze sui medicane utilizzando un approccio di tipo satellitare per ottenere un algoritmo di detection. Per tale ragione sono stati integrati dati di diverse tipologie di sensori satellitari e del modello numerico WRF. Il sensore SEVIRI ha fornito misure di TB a 10.8μm e informazioni sulla distribuzione del vapor d’acqua atmosferico attraverso i due canali a 6.2 e 7.3 μm. I sensori AMSU–B/MHS hanno fornito informazioni sulle proprietà delle nubi e sulla distribuzione verticale del vapor d’acqua atmosferico attraverso le frequenze nelle microonde nell’intervallo 90-190 GHz. I canali a 183.31 GHz, sono stati utilizzati per alimentare gli algoritmi 183-WSL, per la stima delle precipitazioni, e MWCC, per la classificazione del tipo di nubi. Infine, le simulazioni tramite modello WRF hanno fornito i dati necessari per l’analisi dei campi di vento e di vorticità nella zona interessata dal ciclone. Lo schema computazione a soglie di sensibilità dell’algoritmo di detection è stato realizzato basandosi sui dati del medicane “Rolf” che, nel novembre 2011, ha interessato la zona del Mediterraneo occidentale. Sono stati, inoltre, utilizzati i dati di fulminazione della rete WWLLN, allo scopo di identificare meglio la fase di innesco del ciclone da quella matura. La validità dell’algoritmo è stata successivamente verificata su due casi studio: un medicane che nel settembre 2006 ha interessato la Puglia e un MCS sviluppatosi sulla Sicilia orientale nell'ottobre 2009. I risultati di questo lavoro di tesi da un lato hanno apportato un miglioramento delle conoscenze scientifiche sui cicloni mediterranei simil-tropicali, mentre dall’altro hanno prodotto una solida base fisica per il futuro sviluppo di un algoritmo automatico di riconoscimento per sistemi di tipo medicane.
Resumo:
Analisi del Web Semantico
Resumo:
Vengono illustrati i principali aspetti tecnici per la realizzazione di un sito e-commerce ed il suo funzionamento