904 resultados para Antagoniste non-peptidique de la vasopressine


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi parlo del fenomeno del complemento oggetto preposizionale. Nel primo capitolo definirò e descriverò il fenomeno grazie alle posizioni assunte da molti grammatici e linguisti nei loro studi; riporterò le varie ipotesi sorte nel campo della linguistica circa l’origine del fenomeno e come si giunge all’uso della preposizione “a” per tale marcatura; evidenzierò, infine, i vari approcci da parte dei linguisti di fronte al fenomeno in spagnolo, italiano e nelle sue varianti in diatopia. Nel secondo capitolo, focalizzerò l’attenzione sull’aspetto normativo esposto nelle grammatiche riguardo un uso corretto della marca riportando le casistiche d’uso in spagnolo, in italiano, e descrivendo come e dove alcuni linguisti rintracciano il fenomeno tra le varianti dialettali e di italiano regionale. Nel terzo e ultimo capitolo, riporto i dati di una indagine condotta tra parlanti di due fasce d’età distinte (studenti e over 30) a Granada, per quanto concerne lo spagnolo, e Montemesola (piccolo paese della provincia di Taranto), per una verifica dell’uso della marca preposizionale in italiano e dialetto. Cercherò di evidenziare: quanto e in che modo i parlanti siano consapevoli delle loro scelte linguistiche analizzando, non solo statisticamente la frequenza d’uso della “a”, confrontandola tra le fasce d’età, ma considerando anche, di volta in volta, le motivazioni date dai parlanti nell’effettuare le loro scelte. La grammatica non è il perno centrale delle considerazioni del parlante nel momento in cui sceglie dei ricorsi linguistici piuttosto che altri, ma esistono altri criteri nella scelta altrettanto rilevanti, quali fattori soprasegmentali, contesto linguistico ed extralinguistico, e conoscenza enciclopedica del mondo, che intervengono anche a giustificazione dell’assenza della preposizione, rendendola significativa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

H20 è la formula chimica che tutti conoscono. L'acqua, infatti, non è solo la sostanza più diffusa sulla terra, ma è anche la condizione necessaria per la vita. La disponibilità e l’accessibilità di acqua pulita è essenziale per la salute delle comunità, è fondamentale per gli ecosistemi e indispensabile per la prosperità economica. La quantità di acqua dolce sulla Terra è limitata e non equamente distribuita. La scarsità idrica non è più un problema limitato alle regioni più povere del Pianeta: l’acqua è oggi un problema globale che coinvolge sempre più aree del mondo. Ed è proprio grazie al binomio importanza - scarsità che l’acqua è stata soprannominata l'oro blu del XXI secolo, secolo in cui sarà l’acqua a rendere più precari gli equilibri mondiali come, in passato, lo è stato il petrolio. Nella prima parte di questo elaborato l’acqua e i problemi ad essa connessa faranno da protagonisti. Nel capitolo 1 inquadreremo dapprima il problema idrico e parleremo della scarsità di questa importantissima risorsa e dei suoi innumerevoli utilizzi. Nel capitolo 2 presenteremo la Water Footprint o impronta idrica, un indicatore appositamente ideato per quantificare l'uso di acqua di un prodotto, un processo, un individuo, un organizzazione o una nazione. Questo indicatore apre la strada alla focalizzazione sui prodotti dell’industria agroalimentare, il comparto industriale su cui concentreremo la nostra attenzione. Nel capitolo 3 esamineremo l’utilizzo dell’acqua nelle industrie, con particolare attenzione ai temi del riciclo e riuso della risorsa idrica. Nel capitolo 4 analizzeremo alcune esperienze di aziende agroalimentari che hanno intrapreso un percorso di tutela e risparmio della risorsa idrica. Nella seconda parte dell’elaborato inquadreremo il tema della salvaguardia della risorsa idrica in un quadro più generale di tutela ambientale. Nel capitolo 5 presenteremo i temi di green economy, sostenibilità ambientale e ecologia industriale dando rilievo alla dimensione ambientale, economica e sociale. Nel capitolo 6, infine, analizzeremo gli strumenti che le aziende hanno a disposizione per calcolare, certificare e comunicare la loro politica di sostenibilità ambientale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La sindrome di Cushing (SC) è una delle endocrinopatie più comuni nel cane. La diagnosi richiede l'integrazione di anamnesi, segnalamento, segni clinici, esami ematobiochimici, test endocrini specifici e diagnostica per immagini . Nel corso degli anni diversi sono i principi attivi testati per la terapia della SC del cane. In passato, il mitotane è stato il farmaco più utilizzato, sebbene il suo uso risulti complicato e non privo di potenziali effetti collaterali. Recentemente, il trilostano ha dimostrato di essere un trattamento efficace per il controllo dei sintomi ed è stato approvato per tale uso nel cane. Al fine di testare metodiche non invasive per la diagnosi di SC nel cane abbiamo valutato le concentrazioni di cortisolo nel pelo (HCC) .Queste risultavano significativamente più elevate nei cani con SC rispetto ai cani sani e malati. Questo test può essere quindi considerato una procedura diagnostica non invasiva in cani con un elevato sospetto di SC. Inoltre, a causa della difficile reperibilità dell’ACTH esogeno sono state valutate le concentrazioni di cortisolo basale come strumento di monitoraggio in cani con SC trattati con trilostano. Tuttavia la singola valutazione del cortisolo basale non rappresenta un parametro efficace ed accurato per il monitoraggio della terapia con trilostano. Sono stati inoltre valutati i fattori prognostici in cani con SC alla diagnosi. L' iperfosfatemia è risultata un riscontro comune nei cani SC, rappresentando un fattore prognostico negativo. La terapia chirurgica non è una procedura di routine nella SC del cane, tuttavia abbiamo descritto l'approccio di ipofisectomia transsfenoidale in un Galgo spagnolo di 8 anni con SC . Il cane è stato sottoposto per due volte ad ipofisectomia transsfenoidale che ha permesso di rimuovere completamente il macroadenoma ipofisario. In conclusione, questi studi ci hanno permesso di indagare alcuni aspetti patogenetici, clinici e diagnostici della SC del cane.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le attuali sezioni d’urto di reazioni indotte da neutroni non sono sufficientemente accurate per essere utilizzate in progetti di ricerca di frontiera. Per soddisfare la richiesta di nuovi dati nucleari è stata recentemente costruita al CERN di Ginevra la facility n_TOF (neutron Time Of Flight). Le caratteristiche che contraddistinguono questa facility sono l’elevato flusso istantaneo di neutroni, l’ampio spettro energetico e l’eccellente risoluzione energetica. In questa tesi viene analizzata la sezione d’urto di cattura neutronica su 238U, fondamentale per la realizzazione dei reattori nucleari di nuova generazione che prevedono la sostituzione del combustibile 235U con 238U, molto più abbondante in natura e che permette di ridurre drasticamente l’accumulo di scorie nucleari. Nonostante le numerose misure già effettuate su questo elemento, ancora non si è raggiunta la precisione necessaria per le tecnologie nucleari emergenti quali i reattori di quarta generazione e gli ADS (Accelerator Drive System). Inoltre la parametrizzazione della sezione d’urto in termini di matrice R, non è così accurata quanto richiesto. In questo lavoro si è dapprima studiata l’assegnazione dello spin delle risonanze riportata in letteratura, elemento fondamentale per la successiva analisi delle risonanze e la parametrizzazione della sezione d’urto della reazione 238U(n, ). Parallelamente a questa attività si è studiata la funzione di risposta dello spettrometro n_TOF, che descrive la risoluzione energetica dei neutroni incidenti e va quindi a modificare la forma delle risonanze. I risultati ottenuti sono quindi stati confrontati con quelli in letteratura per poter essere validati e per poter verificare eventuali migliorie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo dello studio: valutare i cambiamenti indotti da diversi trattamenti di mordenzatura sulla morfologia superficiale e sulla microstruttura di due vetro-ceramiche a base disilicato di litio (IPS e.max® Press e IPS e.max® CAD) ed esaminarne gli effetti sia sull’adesione con un cemento resinoso che sulla resistenza alla flessione. Materiali e metodi: Settanta dischetti (12 mm di diametro, 2 mm di spessore) di ogni ceramica sono stati preparati e divisi in 5 gruppi: nessun trattamento (G1), HF 5% 20s (G2), HF 5% 60s (G3), HF 9.6% 20s (G4), HF 9.6% 60s (G5). Un campione per ogni gruppo è stato analizzato mediante profilometro ottico e osservato al SEM. Per gli altri campioni è stato determinato lo shear bond strength (SBS) con un cemento resinoso. Dopo l’SBS test, i campioni sono stati caricati fino a frattura utilizzando il piston-on-three-ball test per determinarne la resistenza biassiale alla flessione. Risultati: L’analisi morfologica e microstrutturale dei campioni ha rivelato come diversi trattamenti di mordenzatura producano delle modifiche nella rugosità superficiale che non sono direttamente collegate ad un aumento dei valori di adesione e dei cambiamenti microstrutturali che sono più rilevanti con l’aumento del tempo di mordenzatura e di concentrazione dell’acido. I valori medi di adesione (MPa) per IPS e.max® CAD sono significativamente più alti in G2 e G3 (21,28 +/- 4,9 e 19,55 +/- 5,41 rispettivamente); per IPS e.max® Press, i valori più elevati sono in G3 (16,80 +/- 3,96). La resistenza biassiale alla flessione media (MPa) è più alta in IPS e.max® CAD (695 +/- 161) che in IPS e.max® Press (588 +/- 117), ma non è non influenzata dalla mordenzatura con HF. Conclusioni: il disilicato di litio va mordenzato preferibilmente con HF al 5%. La mordenzatura produce alcuni cambiamenti superficiali e microstrutturali nel materiale, ma tali cambiamenti non ne influenzano la resistenza in flessione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In corso di gravidanza normale avvengono modificazioni emodinamiche centrali e periferiche volte a garantire le crescenti richieste nutritive dell'unità feto-placentare. L’ecografia con mezzo di contrasto (CEUS-Contrast Enhanced Ultrasonography) a base di microbolle offre una nuova opportunità di monitorare e quantificare la perfusione utero-placentare in condizioni normali e patologiche. L’ecocardiografia è stata ampiamente usata in medicina umana per valutare l’adattamento morfo-funzionale cardiaco materno durante la gravidanza. Gli scopi di questo lavoro prospettico sono stati di applicare, per la prima volta nella specie equina, un mezzo di contrasto di II generazione (Sonovue®), al fine quantificare la perfusione utero-placentare in corso di gravidanza normale, valutandone gli effetti sul benessere materno-fetale e di descrivere le modificazioni nei parametri ecocardiografici morfometrici e funzionali cardiaci, in particolare relativi alla funzione del ventricolo sinistro nel corso di una gravidanza fisiologica. Due fattrici sane di razza Trottatore sono state monitorate ecograficamente in maniera seriale durante l’intero corso della gravidanza, tramite esame bidimensionale, ecocontrastografia dell'unità utero-placentare, flussimetria Doppler delle arterie uterine, ecocardiografia materna in modalità bidimensionale, M-mode, Doppler e Tissue Doppler Imaging. I neonati sono stati clinicamente monitorati e gli invogli fetali esaminati. Il pattern di microperfusione utero-placentare è valutabile quali-quantitativamente tramite la CEUS e dimostra un’aumento del flusso a livello di microvascolarizzazione uterina con l'avanzare della gravidanza; non è stata rilevata la presenza di microbolle a livello di strutture fetali nè effetti dannosi sul benessere materno-fetale. In questo studio sono state osservate delle modificazioni cardiache materne in corso di gravidanza fisiologica, relative all'aumento della FC, del CO ed in particolare all'aumento delle dimensioni dell'atrio sinistro ed a modificazioni nelle onde di velocità di flusso e tissutali di riempimento del ventricolo sinistro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'esame clinico della palpazione manuale dei tessuti è ancora oggi l'indagine preliminare più diffusa per l'identificazione e la diagnosi delle lesioni superficiali. L'esame è infatti in grado di fornire al medico esaminatore una valutazione qualitativa circa le proprietà meccaniche dei tessuti indagati, in particolare per quanto concerne la rigidità. I limiti fondamentali e intrinseci della palpazione sono l'impossibilità di raggiungere i tessuti in profondità, limitando quindi l'analisi agli elementi anatomici superficiali, e la grandezza delle lesioni rilevabili. L'elastografia si inserisce in tale contesto come strumento diagnostico in grado di valutare le proprietà meccaniche dei tessuti in funzione della profondità, con una risoluzione spaziale non ottenibile attraverso la semplice palpazione. L'elastosonografia rappresenta la metodologia elastografica attualmente più diffusa, caratterizzata da numerose tecnologie specializzate nell'indagine di diversi elementi anatomici. Il vantaggio fondamentale dell'elastosonografia rispetto ad altre metodiche come l'elastografia a risonanza magnetica o l'elastografia tattile risiede nell'integrazione efficace con la tradizionale indagine ecografica. L'elaborato si pone l'obiettivo di descrivere e valutare le varianti implementative dell'elastosonografia e la loro efficacia come strumento diagnostico. La prima parte (parte I) riassume i concetti fondamentali alla base dell'indagine ecografica, fornendo le nozioni teoriche ed un contesto adeguato alla comprensione dell'elastosonografia. Entrambe le indagini sono infatti basate principalmente sull'emissione e ricezione di ultrasuoni. La parte centrale (parte II) dell'elaborato analizza le principali tecniche elastosonografiche attualmente esistenti. I metodi descritti, a prescindere dal principio di funzionamento specifico, sono accomunati dalla medesima dinamica fondamentale che comprende una eccitazione meccanica del tessuto e l'osservazione della relativa risposta, per fornire una misura qualitativa o quantitativa della rigidità del tessuto in esame. L'ultima parte (parte III) analizza alcuni casi applicativi di particolare rilevanza, soffermandosi sulla valutazione dal punto di vista statistico del contributo fornito dalla specifica tecnica elastosonografica rispetto alle indagini tradizionali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Educare le nuove generazioni all'uso consapevole del web è un'attività di notevole importanza, visto l'utilizzo sempre più intenso che la società contemporanea fa di questo insieme numeroso e variegato di tecnologie, identificato dalla parola "rete''. La rete quindi non è più paragonabile soltanto a un luogo virtuale da visitare ma quasi ad un'"atmosfera" che circonda la realtà stessa, rendendo costantemente vicine possibilità e preoccupazioni sempre nuove. Gli utenti della rete, siano essi "nativi" o "immigrati", si trovano a contatto con questo ambiente mutevole e rapidissimo e ne apprendono regole e usi, riportandoli a volte anche sulla realtà, con maggiore o minore disinvoltura. Le giovani generazioni sono particolarmente permeabili a questo tipo di apprendimento e dimostrano sempre maggiore affinità con lo strumento web, a volte rischiando di confondere il virtuale con il reale. La deriva valoriale e ideologica della società europea ed italiana lascia però dei vuoti che vengono spesso colmati dalle relazioni che sono loro più prossime. Anche quelle on the cloud, nel bene e nel male. Il rischio di scambiare il mezzo con il fine, poi, è sempre presente. La sfida per il sistema educativo, familiare, sociale, è dimostrarsi attento, essere aggiornato sulle tecnologie, è saper valutare attentamente, saper discernere e riconoscere le opere dai loro frutti, per poter condividere l'esperienza umana in tutti i suoi aspetti con coloro che, più di tutti, vanno in cerca di risposte profonde alle loro domande. Non bisogna aver paura di mettersi in gioco, talvolta anche di rischiare, perché la posta in gioco è altissima, è in gioco lo stesso rapporto di scambio e di fiducia tra generazioni differenti. Le maglie delle nostra "rete" di relazioni, di rapporti, di comunicazione, crescono sempre di numero, ma non bisogna promuovere la sola quantità a scapito della qualità della loro sostanza, soprattutto nel caso degli adolescenti. Concludendo, ritengo che nell'educazione al web siano fondamentali: l'attenzione, l'ascolto reciproco, la cura dei dettagli e l'attenzione al rispetto delle regole. La precisione del controllo, il senso del limite e il valore prospettico delle aspettative sono strumenti imprescindibili per costruire giorno dopo giorno una "rete" formata per le persone e non soltanto delle persone formate per la rete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The uncertainties in the determination of the stratigraphic profile of natural soils is one of the main problems in geotechnics, in particular for landslide characterization and modeling. The study deals with a new approach in geotechnical modeling which relays on a stochastic generation of different soil layers distributions, following a boolean logic – the method has been thus called BoSG (Boolean Stochastic Generation). In this way, it is possible to randomize the presence of a specific material interdigitated in a uniform matrix. In the building of a geotechnical model it is generally common to discard some stratigraphic data in order to simplify the model itself, assuming that the significance of the results of the modeling procedure would not be affected. With the proposed technique it is possible to quantify the error associated with this simplification. Moreover, it could be used to determine the most significant zones where eventual further investigations and surveys would be more effective to build the geotechnical model of the slope. The commercial software FLAC was used for the 2D and 3D geotechnical model. The distribution of the materials was randomized through a specifically coded MatLab program that automatically generates text files, each of them representing a specific soil configuration. Besides, a routine was designed to automate the computation of FLAC with the different data files in order to maximize the sample number. The methodology is applied with reference to a simplified slope in 2D, a simplified slope in 3D and an actual landslide, namely the Mortisa mudslide (Cortina d’Ampezzo, BL, Italy). However, it could be extended to numerous different cases, especially for hydrogeological analysis and landslide stability assessment, in different geological and geomorphological contexts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'energia solare rientra nel gruppo delle energie rinnovabili, ovvero che provengono da una fonte il cui utilizzo attuale non ne pregiudica la disponibilità nel futuro. L'energia solare ha molti vantaggi, poiché è inesauribile ed è una risorsa d'immediata disponibilità perché giunge attraverso i raggi del sole. La conversione fotovoltaica sfrutta il meccanismo di generazione di carica elettrica prodotto dall'interazione della radiazione luminosa su di un materiale semiconduttore. La necessità di creare energia riducendo al minimo l'impatto ambientale ed il contemporaneo aumento del prezzo di fonti fossili come ad esempio il petrolio ed il carbone (senza trascurare il fatto che le riserve di essi sono, di fatto, esauribili) ha portato un aumento considerevole della produzione di energia elettrica tramite conversione fotovoltaica. Allo stato attuale dell'economia e dei mercati, sebbene il settore fotovoltaico sia in forte crescita, non è esente da un parametro che ne descrive le caratteristiche economiche ed energetiche, il cosiddetto rapporto costo/efficienza. Per efficienza, si intende la quantità di energia elettrica prodotta rispetto alla potenza solare incidente per irraggiamento, mentre per costo si intende quello sostenuto per la costruzione della cella. Ridurre il rapporto costo/efficienza equivale a cercare di ottenere un'efficienza maggiore mantenendo inalterati i costi, oppure raggiungere una medio-alta efficienza ma ridurre in maniera significativa la spesa di fabbricazione. Quindi, nasce la necessità di studiare e sviluppare tecnologie di celle solari all'avanguardia, che adottino accorgimenti tecnologici tali per cui, a parità di efficienza di conversione, il costo di produzione della cella sia il più basso possibile. L'efficienza dei dispositivi fotovoltaici è limitata da perdite ottiche, di ricombinazione di carica e da resistenze parassite che dipendono da diversi fattori, tra i quali, le proprietà ottiche e di trasporto di carica dei materiali, l'architettura della cella e la capacità di intrappolare la luce da parte del dispositivo. Per diminuire il costo della cella, la tecnologia fotovoltaica ha cercato di ridurre il volume di materiale utilizzato (in genere semiconduttore), dal momento in cui si ritiene che il 40% del costo di una cella solare sia rappresentato dal materiale. Il trend che questo approccio comporta è quello di spingersi sempre di più verso spessori sottili, come riportato dalla International Technology Roadmap for Photovoltaic, oppure ridurre il costo della materia prima o del processo. Tra le architetture avanzate di fabbricazione si analizzano le Passivated Emitter and Rear Cell-PERC e le Metal Wrap Through-MWT Cell, e si studia, attraverso simulazioni numeriche TCAD, come parametri geometrici e di drogaggio vadano ad influenzare le cosiddette figure di merito di una cella solare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il proposito principale di questo studio è valutare, attraverso un confronto tra tecnologia Nexfin e metodo invasivo, se l’attuazione di modelli fisiologici realizzata dal Monitor Nexfin, rende possibile un preciso e accurato monitoraggio dinamico della pressione arteriosa, garantendo in questo modo l’affidabilità della suddetta tecnologia in ambito clinico. È stato deciso di porre come termine di paragone il sistema invasivo in quanto rappresenta il gold standard per la rilevazione della pressione arteriosa. I capitoli sono stati disposti in modo da introdurre gradualmente il lettore all’interno del topic principale dell’elaborato, fornendo di volta in volta tutte le conoscenze essenziali per una comprensione ottimale degli argomenti trattati. Il primo capitolo fornisce inizialmente una breve visione d’insieme sull’apparato cardiocircolatorio, per poi concentrarsi sui fenomeni che concorrono alla definizione e alla caratterizzazione della pressione arteriosa. Il secondo capitolo presenta alcuni cenni storici sulle prime misurazioni di pressione effettuate, in seguito illustra i principali metodi di misurazione non invasivi, articolando il discorso anche attraverso l’analisi dei principali sfigmomanometri ad oggi disponibili. Il terzo capitolo guida il lettore attraverso la scoperta delle più recenti metodiche non invasive per la misurazione della pressione che consentono un monitoraggio dinamico, esponendo nel dettaglio i loro limiti e le loro peculiarità. Nella parte finale del capitolo si affronta anche l’evoluzione del “Volume Clamp Method” di Peñáz partendo dal progetto originale fino a giungere al notevole contributo di Wesseling e alla ricostruzione del segnale di pressione brachiale. Il quarto capitolo delinea brevemente le caratteristiche principali del metodo invasivo, ovvero il gold standard per quanto riguarda il monitoraggio della pressione sanguigna. Il quinto capitolo infine illustra in maniera completa le proprietà del Monitor Nexfin e analizza i risultati conseguiti, confrontando la tecnologia Nexfin con il sistema invasivo, durante lo studio condotto presso l’Ospedale Maurizio Bufalini dell’Azienda USL della Romagna – Sede operativa di Cesena. Lo studio è presentato seguendo una impostazione scientifica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro si propone come un’indagine sulla letteratura italiana del primo decennio del XXI secolo, in una prospettiva non di semplice ricognizione ma di individuazione di linee interpretative capaci di ripercorrere un archivio di materiali molto vasto e non ancora chiuso. La prima parte affronta questioni relative a condizioni produttive, ricezione e valutazione critica della letteratura contemporanea. Il primo capitolo è dedicato alla discussione di problemi relativi allo studio della narrativa italiana del XXI secolo a partire dalla definizione utilizzata per riferirsi ad essa, quella di “anni zero”. Il secondo capitolo situa la narrativa contemporanea nelle linee di sviluppo della letteratura italiana degli ultimi trent’anni, a partire da un mutamento del rapporto dello scrittore con la tradizione umanistica che risale all’inizio degli anni ottanta. Il terzo capitolo approfondisce uno dei generi maggiormente praticati: il romanzo storico. Considerato negli anni ottanta e novanta un genere d'evasione e intrattenimento, negli anni zero è divenuto veicolo di punti di vista critici nei confronti delle narrazioni dominanti. La seconda parte è dedicata all’approfondimento di romanzi che raccontano, da un’ottica non testimoniale, gli anni settanta italiani, periodo complesso non solo sul piano evenemenziale, ma anche su quello della rielaborazione artistica. I romanzi su cui si concentra l’indagine offrono un racconto degli anni settanta italiani a partire da un’idea di storia plurale, ricostruita attraverso una molteplicità di voci, che muta a seconda della prospettiva da cui viene affrontata. Le storie false dei romanzi sugli anni settanta non chiedono di essere lette come vere, ma dicono comunque qualcosa di vero sulle modalità attraverso le quali si va costruendo il rapporto con il passato recente, nel più ampio contesto dei percorsi della letteratura italiana di inizio millennio, tra spinte che vanno nella direzione del mantenimento dell’autonomia da parte degli autori e pressioni del mercato editoriale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio effettuato raccoglie informazioni al fine di svolgere un’analisi globale delle tecniche attualmente in uso, o in fase di studio, nel campo della localizzazione di dispositivi all’interno di un ambiente chiuso, ovvero laddove non è possibile sfruttare la copertura del sistema GPS. La panoramica è frutto dell’analisi e dello studio di paper tecnici pubblicati dai collaboratori dell’IEEE, fruibili all’interno del portale IEEE Xplore. A corredo di questo studio è stata sviluppata una applicazione per dispositivi Android basata sulla tecnica del Wi-Fi fingerprint; l’applicazione, che rappresenta un primo approccio alle tecniche di localizzazione, è a tutti gli effetti un sistema standalone per la localizzazione, consente cioè di costruire sia la mappa per la localizzazione, partendo da un ambiente sconosciuto, sia di ottenere la posizione dell’utente all’interno di una mappa conosciuta. La tesi si conclude con una analisi dei risultati e delle performance ottenute dall’applicazione in un uso comune, al fine di poter valutare l’efficacia della tecnica presa in considerazione. I possibili sviluppi futuri sono analizzati in un capitolo a parte e trovano spazio in ambienti nei quali si vogliono offrire servizi "context-based", ovvero basati sulla posizione esatta dell’utente.