693 resultados para rete mirabile carotídea
Resumo:
La ricerca ha scelto di affrontare una serie di problemi connessi alla valorizzazione e alla conservazione del materiale pubblicitario rispetto a un caso studio selezionato, l’archivio dell’Art Directors Club Italiano conservato presso il Centro Studi e Archivio della Comunicazione dell’Università di Parma. Questo archivio è costituito principalmente da materiali della comunicazione pubblicitaria - suddivisi in categorie corrispondenti a media e tecniche - iscritti dal 1998 al 2003 agli ADCI Awards, il premio italiano di riferimento dedicato alla pubblicità e organizzato dall’Art Directors Club Italiano - ADCI a partire dall’anno della sua fondazione, il 1985. La sua storia è quindi connessa strettamente con quella dell’associazione, che rappresenta e riunisce professionisti della pubblicità che condividono obiettivi comuni, e in particolare il riconoscimento e la valorizzazione della creatività come elemento fondante della comunicazione d’impresa e istituzionale. Lo CSAC in parallelo, il contesto archivistico all’interno del quale questi fondi sono venuti a trovarsi in seguito alla donazione da parte dell’ADCI nel 2002-2003, è un centro di ricerca dell’Università di Parma dedicato alla conservazione e allo studio di archivi provenienti da diversi ambiti culturali. A partire da una mappatura dell’archivio e dalla ricostruzione di contesti e dibattiti fondamentali per studiare e organizzare i fondi, questa tesi si propone di individuare, in particolare attraverso gli strumenti digitali, possibili modalità di analisi, esposizione e accesso ai materiali, che possano aprire una rete di connessioni verso altri ambiti di ricerca e nuove prospettive in funzione delle storie della pubblicità.
Resumo:
O HDL-c é um fator de risco cardiovascular negativo e sua concentração plasmática apresenta relação inversa com a incidência de eventos cardiovasculares. Entretanto, as evidências relativas ao grupo de indivíduos com níveis de HDL-c acima do percentil 95 da população geral ainda são escassas e o impacto da hiperalfalipoproteinemia (HALP) sobre o risco cardiovascular continua representando motivo de controvérsia na literatura médica. Alguns estudos em populações específicas associam a HALP a aumento do risco cardiovascular. Ao mesmo tempo, outros estudos identificaram populações de indivíduos hipoalfalipoproteinêmicos com marcada longevidade. Assim, demonstrou-se aparente dissociação entre níveis de HDL-c e risco cardiovascular em determinadas populações, reconduzível a aspectos disfuncionais da HDL. O objetivo do presente estudo foi verificar o papel da HALP na determinação do risco cardiovascular; comparar a prevalência de doença cardiovascular subclínica, avaliada por meio da quantificação ultrassonográfica da Espessura Íntimo-Medial Carotídea (EIMC), entre portadores de HDL-c >= 90mg/dL (grupo HALP) e portadores de concentrações de HDL-c atualmente consideradas normais (entre 40 e 50mg/dL para os homens e entre 50 e 60mg/dL para as mulheres); e avaliar características e função da HDL em portadores de HALP por meio do estudo de sua composição, de sua capacidade de efluxo de colesterol, e de sua atividade anti-inflamatória e antioxidante, correlacionando estas características com a presença de doença cardiovascular subclínica avaliada por meio da determinação da EIMC, da Velocidade de Onda de Pulso (VOP) e da presença de Calcificação Arterial Coronariana (CAC) avaliada pela TCMD. Para responder estas perguntas, o presente estudo foi articulado em dois braços: Braço 1: Análise da coorte do estudo ELSA com o objetivo de determinar a prevalência de HALP em uma população geral; definir o perfil demográfico, antropométrico e metabólico dos portadores de HALP; e comparar a prevalência de doença vascular subclínica deste grupo com controles da mesma coorte com níveis normais de HDL-colesterol. Braço 2: Recrutamento de 80 voluntários hígidos e portadores de HALP para avaliação da correlação entre presença de doença vascular subclínica, e aspectos estruturais e funcionais da HDL. Em seus dois braços, o estudo levou a quatro conclusões principais: 1) Níveis marcadamente elevados de HDL-c estão associados a menor espessura íntimo-medial carotídea quando comparados a níveis de HDL-c considerados normais pelas diretrizes vigentes. Embora portadores do fenótipo HALP apresentem, como grupo, um perfil metabólico mais favorável que o encontrado em indivíduos com HDL-c normal, a associação entre EIMC e HALP foi independente dos fatores de risco tradicionais, indicando que a menor prevalência destes últimos em portadores de HDL-c marcadamente elevado justifica apenas parcialmente a menor prevalência de doença vascular subclínica neste grupo; 2) Embora a HALP se apresente como um fenótipo ateroprotetor, há indivíduos com níveis marcadamente elevados de HDL-c que evoluem com doença cardiovascular, clínica ou subclínica. Neste contexto, nossos resultados indicam correlação entre os três métodos avaliados para estudar doença vascular subclínica em portadores de HALP: EIMC, VOP e CAC; 3) Os fatores de risco tradicionais continuam exercendo seu peso na determinação do risco cardiovascular em portadores de HALP. Idade, tabagismo, hipertensão arterial, hipertrigliceridemia e altos níveis de LDL-c apresentaram associação estatisticamente significativa com a presença de doença vascular subclínica no grupo estudado; 4) A avaliação da composição e da função da HDL em portadores de HALP pode permitir identificar indivíduos especificamente mais suscetíveis à aterosclerose. Nossos resultados indicam que, em particular, a atividade anti-inflamatória da HDL, avaliada pela capacidade de inibição da produção de IL-6; o efluxo de colesterol e a capacidade de transferência de triglicérides apresentaram associação independente com menor espessura íntimo-medial carotídea em portadores de HALP, enquanto níveis mais altos de Apo A-IV se associaram a maior grau de doença cardiovascular subclínica
Resumo:
In questo documento ho analizzato lo scenario della passata e dell’odierna Internet, dal classico protocollo HTTP, al protocollo sperimentale QUIC, argomento di questa tesi. In primis ho analizzato gli attuali protocolli utilizzati nella rete e ricercato i motivi che hanno portato a crearne di nuovi, successivamente ho effettuato un analisi teorica del protocollo affidandomi ai documenti forniti dall'IETF, poi in un capitolo a sé ho descritto l'handshake crittografato tipico di questo protocollo ed infine nell'ultimo capitolo ho mostrato graficamente e praticamente come lavora il protocollo in una reale implementazione. Dopo aver completato questa tesi, mi sono potuto rendere conto di quanto sia necessario un cambio di rotta verso protocolli di rete più veloci, sicuri ed affidabili. I classici protocolli oramai non sono più sufficienti a soddisfare le migliaia di richieste di connessione e presentano, come si vedrà, delle lacune a cui bisogna porre rimedio. Gran parte della popolazione mondiale ha accesso al web,ed è uno strumento ormai alla portata di tutti e non più privilegio di pochi e ci si augura per il bene della rete Internet che tale protocollo o protocolli simili possano prendere presto piede per una migliore esperienza di navigazione a livello globale. Probabilmente saranno necessari molti anni, ma l’idea che già si pensi ad un futuro non tanto prossimo fa ben sperare su quello che ci aspetta. Nella lettura di questa tesi si vedrà come queste ultime affermazioni possano diventare realtà.
Resumo:
In questo elaborato si tratterà il metodo di analisi e modellazione post-sismica del terreno attraverso l’utilizzo dei dati GPS e dati SAR. Si prenderanno in esame due eventi sismici: il grande terremoto di Tohoku in Giappone del marzo 2011, con particolare attenzione alla conseguente formazione di un grande tsunami, e la sequenza sismica umbro-marchigiana del settembre/ottobre 1997. In tale contesto verranno descritti i diversi strumenti di monitoraggio e i modelli delle sorgenti sismiche, i quali hanno il compito di determinare importanti informazioni per la più rapida valutazione possibile del rischio sismico e per la corretta pianificazione delle attività umane e del territorio. Obiettivo della tesi è descrivere l’efficacia dell’utilizzo congiunto della tecnica di monitoraggio GPS e l’Interferometria Differenziale SAR. Grazie all’analisi ed alla conseguente modellazione dei dati raccolti nei due eventi sismici descritti in questo lavoro si dimostra l’importanza di tali tecniche per comprendere al meglio i fenomeni sismici. Nel primo capitolo verranno descritte le tecniche di monitoraggio GPS e SAR e le successive tecniche di analisi e modellazione dei dati al fine di avere una previsione dell’evento preso in considerazione. Nel secondo capitolo si esamineranno le peculiarità dell’evento sismico giapponese (2011) e delle elaborazioni condotte per caratterizzare lo tsunami provocato dalla rottura del fondale oceanico. Nel terzo capitolo si analizzerà la sequenza sismica umbro-marchigiana del 1997 prestando attenzione allo sviluppo della rete geodetica del territorio nazionale italiano con riferimenti allo sviluppo della Rete Integrata Nazionale GPS (RING). Nel quarto capitolo verrà descritto in modo introduttivo la struttura del software Bernese GNSS v. 5.2; un software di elaborazione dati usato in ambito scientifico per l’analisi di reti GNSS per il controllo delle deformazioni.
Resumo:
Questa tesi si pone l'obiettivo di implementare in ambiente Linux un'applicazione di sincronizzazione, chiamata DTNbox, che permetta lo scambio di file tra due nodi di una rete classificabile come Delay-/Disruption-Tolerant Network (DTN), ossia una rete in cui a causa di ritardi, interruzioni, partizionamento, non sia possibile utilizzare l'usuale architettura di rete TCP/IP. E' evidente che i problemi menzionati rendono estremamente più complessa la sincronizzazione fra cartelle rispetto ad Internet, da cui le peculiarità di DTNbox rispetto ad altre applicazioni in rete visto che, ad esempio, non è possibile la sincronizzazione tramite un nodo centrale, come in Dropbox e similari, ma occorre basarsi su comunicazioni peer-to-peer. L'oggetto della mia tesi si è quindi sviluppato principalmente su tre direzioni: • Implementare, utilizzando il linguaggio di programmazione C, le funzionalità previste dal nuovo progetto per Linux • Integrarne e modificarne le parti ritenute carenti, man mano che i test parziali ne hanno mostrato la necessità • Testarne il suo corretto funzionamento Si è deciso pertanto di dare precedenza alla scrittura delle parti fondamentali del programma quali i moduli di controllo, la struttura e gestione del database e lo scambio di messaggi tra due nodi appartenenti ad una rete DTN per poter arrivare ad una prima versione funzionante del programma stesso, in modo che eventuali future tesi possano concentrarsi sullo sviluppo di una interfaccia grafica e sull'aggiunta di nuovi comandi e funzionalità accessorie. Il programma realizzato è stato poi testato su macchine virtuali grazie all'uso dello strumento Virtualbricks.
Resumo:
L'evoluzione della tecnologia allo stato solido e il fiorire di nuove applicazioni determinano una forte spinta verso la miniaturizzazione dei convertitori elettronici di potenza. Questa riduzione di pesi ed ingombri è particolarmente sentita anche in quei convertitori di media potenza che necessitano di un trasformatore d'isolamento. In quest'ambito assume importante rilievo l'utilizzo di una architettura circuitale a ponte intero e di tecniche in grado di spingere la frequenza di commutazione il più in alto possibile. Questa tesi si propone quindi di studiare a fondo il funzionamento dei convertitori DC/DC isolati di tipo Full-Bridge e pilotati con la tecnica di modulazione Phase-Shifted che ben si presta all'impiego di commutazioni risonanti del tipo Zero-Voltage-Switching. L'analisi teorica sarà corroborata da simulazioni condotte su LTspice e sarà orientata all'individuazione di una metodologia di progetto generale per questo tipo di convertitori. Al fine di formalizzare meglio il progetto si è individuata una possibile applicazione nell'alimentazione di un DC-bus per telecomunicazioni (48 Volt DC sostenuti da batterie) a partire da una fonte di energia fotovoltaica quale una stringa di pannelli operanti con tensioni variabili da 120 a 180 Volt DC. Per questo particolare tipo di applicazione in discesa può avere senso l'impiego di un rettificatore del tipo a duplicazione di corrente, che quindi si provvederà a studiare e ad implementare a secondario del trasformatore d'isolamento. Infine particolare cura sarà dedicata alla parte di controllo che si ha intenzione di integrare all'interno di LTspice così da riuscire a simulare il comportamento dinamico del convertitore e verificare quanto predetto in via teorica mediante l'impiego della procedura che utilizza il K-Factor per la realizzazione della rete compensatrice.
Resumo:
L'obiettivo della tesi è dimostrare l'utilità e i vantaggi che può fornire il Self-Management del diabete mellito di tipo 1 in un sistema di mobile Health a partire da un modello computazionale Agent-Based. Viene quindi affrontata in maniera approfondita la tematica del mobile Health ed il suo sviluppo nei paesi a basso/medio reddito, illustrando i risultati ottenuti dalla ricerca scientifica fino ad oggi, ed il concetto di Self-Management di malattie croniche, un processo di cura caratterizzato dalla partecipazione autonoma del paziente stesso, fornendo una panoramica degli approcci computazionali sviluppati. Viene quindi studiato il diabete mellito in ogni sua caratteristica, seguito dall'illustrazione di diverse applicazioni per la gestione autonoma della suddetta patologia tutt'ora in commercio. Nel caso di studio vengono effettuate diverse simulazioni, tramite la piattaforma di simulazione MASON, per realizzare varie dinamiche della rete fisiologica di un paziente al fine di stabilire feedback qualitativi per il Self-Management della patologia.
Resumo:
Nel cuore di Bologna c’è un posto che attende silenziosamente di essere scoperto per diventare un’occasione di ripensamento della città. BoOM! (Bologna Ospedale Militare) vuole essere una proposta che riesca a coinvolgere in maniera sostenibile le energie del pubblico e del privato con l’intento di riappropriarsi, da parte della città, di un bene comune dalle grandi potenzialità. Il percorso che si sviluppa all’interno di questa tesi parte analizzando la criticità dei vuoti urbani e alcuni tentativi di risposta sperimentati dalle città nel tentativo di ricrearsi un’identità a partire da essi. Alle diverse esperienze in ambito nazionale e internazionale si è poi passati ad un analisi mirata sulla realtà urbana di Bologna, sia dal punto di vista del tessuto socio-economico, che dal punto di vista delle politiche, delle strategie e dei nuovi strumenti legislativi rivolti alla rigenerazione della città. La proposta progettuale che ne scaturisce si concretizza in una metodologia scandita in tre fasi basata su interventi caratterizzati da una loro temporaneità, inseriti in una visione più ampia che si discosta dalla rigidità e dalla lentezza della pianificazione tradizionale. Utilizzare il progetto stesso come strumento di un’analisi che si sviluppa dinamicamente alla ricerca di nuove vocazioni d’uso e per indagare la possibilità di generare nuove relazioni è l’idea che ha dettato lo sviluppo delle prime due fasi progettuali: l’apertura durante gli eventi e l’apertura permanente. La terza fase, ovvero l’intervento sullo spazio esterno, si configura come risposta operativa alle analisi precedenti e come strumento di rammendo urbano nella rete degli spazi pubblici e della mobilità dolce del centro storico. L’ambizione di BoOM! è quella di essere una scintilla in grado di riattivare e rinnovare le energie di questo vuoto nel cuore di Bologna.
Resumo:
I sistemi di localizzazione, negli ultimi anni, sono stati oggetto di numerose ricerche a livello internazionale.Gli sviluppi più importanti hanno avuto inizio nell’ambito stradale con sistemi di navigazione e localizzazione, possibili grazie alle forti capacità del GPS.Infatti il GPS indica l’intero apparato che permette il funzionamento della maggior parte dei navigatori disponibili in commercio, che, però, non sono utilizzabili in ambito indoor, in quanto la ricezione del segnale proveniente dai satelliti GPS diventa scarsa o pressoché nulla. In questo senso, la localizzazione risulta rilevante nel caso di indoor positioning, ossia quando utenti hanno bisogno di conoscere la propria posizione e quella degli altri membri della squadra di soccorso all’interno di un edificio come, ad esempio, i vigili del fuoco durante un’operazione di salvataggio. Sono questi fattori che portano all’idea della creazione di un sistema di localizzazione indoor basato su smartphone o una qualsiasi altra piattaforma disponibile. Tra le diverse tecnologie e architetture legate al posizionamento indoor/outdoor e inerziale, con questa tesi, si vuole esporre la foot-mounted inertial navigation, un sistema che permette di conoscere la propria posizione, sia all’interno di edifici,sia in campi aperti, tramite l’utilizzo di una rete wireless o GPS e l’aiuto di sensori a basso costo.Tuttavia per conoscere la stima ottimale della posizione, della velocità e dell’orientamento corrente di un utente dotato di sensori sarà necessaria l’integrazione di diversi algoritmi, che permettono di modellare e stimare errori o di conoscere e predire la posizione futura dello stesso. Gli scopi principali di questo lavoro sono: 1)Tracciare i movimenti di un utente usando diversi sensori per ottenere una stima ottimale della posizione dello stesso; 2)Localizzare l’utente in 3 dimensioni con precisione; 3)Ottenere una transizione senza interruzioni per un posizionamento continuo tra aree indoor e outdoor;
Resumo:
L'obiettivo che il presente lavoro di tesi si pone consiste nella realizzazione e sperimentazione di una infrastruttura software in grado di monitorare il traffico passante attraverso un nodo di uscita della rete Tor a fini di intelligence proattiva.
Resumo:
Questa tesi si propone di investigare sul rapporto che Wikipedia ha con la traduzione dei suoi articoli. Nella tesi si osserva il fenomeno Wikipedia come paradosso e metodo globale efficiente di diffusione delle informazioni grazie al NPOV, del crowdsourcing con le sue implicazioni etiche per i volontari, i professionisti e i clienti, e della traduzione degli articoli del sito da parte di volontari. Si tratterà del rapporto del traduttore con la grande rete di Wikipedia e con le 280 lingue in cui il sito si può consultare, con una proposta di traduzione del paragrafo “Recursos Humanos” della pagina Wikipedia “El Corte Inglés” spagnola tradotta verso l’italiano.
Resumo:
Le comunicazioni wireless di Quinta Generazione, le quali è assodato che vadano a ricoprire un ruolo chiave e centrale nel futuro delle comunicazioni mobili, hanno suscitato l’interesse e l’investigazione da parte delle maggiori organizzazioni ed enti di ricerca internazionali. Internet of Things, i cosiddetti Use Cases, gli indici KPI e le tecnologie candidate per lo sviluppo, sono tra gli altri, i maggiori aspetti su cui attualmente la ricerca pone la propria attenzione al fine di poter definire ed implementare la rete di Quinta Generazione. Non da meno, ricevono forte interesse anche una serie d’aspetti legati all’utilizzo delle elevate frequenze, in particolar modo le bande delle onde millimetriche, nello sviluppo delle comunicazioni per sistemi 5G. L’utilizzo delle onde millimetriche nel futuro delle comunicazioni mobili è ad oggi considerato il fulcro della ricerca per l’implementazione dell’ architettura di rete di Quinta Generazione. Lo sviluppo di comunicazioni basate sulle onde millimetriche per i sistemi 5G presentano sia delle opportunità ma anche importanti problematiche. Tra queste ultime, l’elevate attenuazioni registrate nelle bande delle onde millimetriche pongono severi limiti qualora si voglia stabilire una comunicazione a lungo raggio e tale è un aspetto critico che interesse fortemente i vari ambiti della ricerca per poter efficacemente porre le basi per il futuro della comunicazione mobile di Quinta Generazione.
Resumo:
L’internazionalizzazione dei contesti industriali e l’aumento della competizione sopravvenuti nel mondo contemporaneo hanno reso necessari diversi mutamenti nelle attività produttive e legate ai servizi, dalla diversificazione dei prodotti, alla riduzione dei lead time, alla razionalizzazione dei costi a tutti i livelli della supply chain, non solo relativamente alle materie prime e alla diminuzione dei prezzi di vendita, ma anche di tutti i costi indiretti, che assumono un peso importante. La rapidità nella sostituzione dei prodotti e la necessità di contenere al massimo i tempi di risposta spingono sempre più le aziende a rivedere la propria struttura in modo da eliminare gli sprechi. Le imprese operano in un ambiente molto complesso, di conseguenza si rende necessario il coinvolgimento non solo delle funzioni interne ad un’azienda, ma anche di quelle esterne, nell’ottimizzazione delle attività che producono valore e di quelle necessarie che non intervengono direttamente. Tra tutte queste attività si cerca, in questo elaborato, di porre un focus su quelle legate alla gestione delle scorte all’interno della supply chain e all’integrazione dei fornitori nella rete logistica aziendale. Verranno ripresi i concetti fondamentali della teoria di gestione delle scorte, e sarà esposto il percorso intrapreso dall’azienda Carpigiani Group, leader mondiale nella produzione e commercializzazione di macchine per la produzione di gelato artigianale ed “espresso”, di integrazione dei fornitori all’interno della catena di approvvigionamento, attraverso un sistema kanban di fornitura e politiche di approvvigionamento riconducibili al consignment stock, con il fine ultimo di ottimizzare i livelli di scorte a magazzino e di servire le linee produttive con efficacia ed efficienza.
Resumo:
Nel corso degli anni le fonti rinnovabili e in particolare il fotovoltaico hanno assunto un ruolo sempre più importante nel panorama energetico italiano. Si è effettuata un’analisi della tecnologia fotovoltaica illustrandone il funzionamento, le tipologie di pannelli, il calcolo dell’energia elettrica producibile e le curve caratteristiche. Dal momento che la maggior parte delle rinnovabili presenta il problema della non programmabilità dovuta alla produzione intermittente, è necessario adottare dei sistemi di accumulo. Tali sistemi vengono mostrati, con particolare riguardo per le batterie al piombo acido e per l’idrogeno immagazzinato in idruri metallici, spiegando nel dettaglio l’elettrolisi e gli elettrolizzatori PEM. Dopo questa panoramica iniziale, si è illustrato l’impianto oggetto di questa tesi, composto principalmente da due pannelli fotovoltaici, un simulatore solare, due batterie al Piombo, un elettrolizzatore, un carico e un alimentatore. In seguito viene spiegata l’attività sperimentale, svolta sulle prove di laboratorio ai fini di ottenere le curve di funzionamento dei vari componenti, tramite due approcci diversi: per il sistema atto all’elettrolisi e per tutti i suoi componenti si è usato un modello black-box, per i pannelli fotovoltaici si è usato un approccio fisico-matematico partendo dalle equazioni del simulatore solare applicandovi i dati dei pannelli del laboratorio. Una volta ottenute queste curve, si è creato un modello completo del laboratorio per simularne il funzionamento al variare dell’irraggiamento. Si è testato prima il modello su un’utenza da 3 kW, poi, dopo aver confrontato gli andamenti reali con quelli ottenuti, si sono simulate varie configurazioni per trovare quella che permette al sistema di produrre idrogeno alla potenza nominale di 250 W in una giornata senza supplemento della rete elettrica.
Resumo:
Questo elaborato si propone di collocare i Sistemi di Accumulo nell’attuale panorama energetico italiano ed europeo, con particolare attenzione alla crescente presenza della produzione di energia da fonti rinnovabili. Dopo alcune valutazioni preliminari sull’Energy Mix europeo ed italiano, si procede a mettere in luce i rischi per il sistema elettrico derivanti dalla eccessiva penetrazione delle fonti rinnovabili. In questo contesto si analizza il potenziale contributo dei Sistemi di Accumulo alla stabilità e all’equilibrio della rete elettrica, soprattutto nella risoluzione delle problematiche derivanti da una Generazione Distribuita e non programmabile. Vengono presentate diverse tipologie di SdA, dal punto di vista del funzionamento e delle caratteristiche, anche in funzione della destinazione d’uso. Si dà poi un quadro generale delle normative europee e italiane, e si indaga l’effettiva convenienza dei Sistemi di Accumulo, anche in relazione all’impatto sull’ambiente e alle emissioni.