1000 resultados para Queste


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Traduction du titre : Don Juan. Le dissolu puni ou bien la possibilité et le déplacement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quello che mi propongo in queste pagine è una breve analisi del debito che Levinas ha nei confronti di Cartesio per quanto concerne l'elaborazione del concetto di infinito in « Totalità e infinito ». [...]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“La questione di Trieste”, ovvero la questione del confine italo-yugoslavo all’indomani della seconda guerra mondiale costituisce da lungo tempo oggetto di attenzione e di esame da parte della storiografia italiana e straniera. Con alcune importanti eccezioni, la ricostruzione complessiva di quelle vicende ha visto il più delle volte il prevalere di un approccio storico-diplomatico che ha reso difficile comprendere con chiarezza i rapporti e le interdipendenze fra contesto locale, contesto nazionale e contesto internazionale. Attraverso la lettura incrociata dell’ampia documentazione proveniente dai fondi dei National Archives Records Administration (NARA) questo studio tenta una rilettura delle varie fasi di sviluppo della questione nel periodo compreso tra il giugno del 1945 e l’ottobre del 1954 secondo una duplice prospettiva: nella prima parte si concentra sulla politica americana a Trieste, guardando nello specifico a due aspetti interni tra loro strettamente correlati, la gestione dell’ordine pubblico e la “strategia” del consenso da realizzarsi mediante il controllo dell’informazione da un lato e la promozione di una politica culturale dall’altro. Sono aspetti entrambi riconducibili al modello del direct rule, che conferiva al governo militare alleato (GMA) piena ed esclusiva autorità di governo sulla zona A della Venezia Giulia, e che ci appaiono centrali anche per cogliere l’interazione fra istituzioni e soggetti sociali. Nella seconda parte, invece, il modificarsi della fonte d’archivio indica un cambiamento di priorità nella politica estera americana relativa a Trieste: a margine dei negoziati internazionali, i documenti del fondo Clare Boothe Luce nelle carte dell’Ambasciata mostrano soprattutto come la questione di Trieste venne proiettata verso l’esterno, verso l’Italia in particolare, e sfruttata – principalmente dall’ambasciatrice – nell’ottica bipolare della guerra fredda per rinforzare il sostegno interno alla politica atlantica. Il saggio, dunque, si sviluppa lungo due linee: dentro e fuori Trieste, dentro 1945-1952, fuori 1953-1954, perché dalle fonti consultate sono queste ad emergere come aree di priorità nei due periodi. Abstract - English The “Trieste question”, or the question regarding the Italian - Yugoslav border after the Second World War, has been the object of careful examination in both Italian and foreign historiography for a long time. With a few important exceptions, the overall reconstruction of these events has been based for the most part on historic and diplomatic approaches, which have sometimes made it rather difficult to understand clearly the relationships and interdependences at play between local, national and international contexts. Through a comparative analysis of a large body of documents from the National Archives and Records Administration (NARA), College Park MD, this essay attempts a second reading of the various phases in which the question developed between June 1945 and October 1954, following a twofold perspective: the first part focuses on American policy for Trieste, specifically looking at two internal and closely linked aspects, on the one hand, the management of ‘law and order’, as well as a ‘strategy’ of consent, to be achieved through the control of all the means of information , and, on the other, the promotion of a cultural policy. Both aspects can be traced back to the ‘direct rule’ model, which gave the Allied Military Government (AMG) full and exclusive governing authority over Venezia Giulia’s Zone A. These issues are also fundamental to a better understanding of the relationships between institutions and social subjects. In the second part of the essay , the change in archival sources clearly indicates a new set of priorities in American foreign policy regarding Trieste: outside any international negotiations for the settlement of the question, the Clare Boothe Luce papers held in the Embassy’s archives, show how the Trieste question was focused on external concerns, Italy in particular, and exploited – above all by the ambassador – within the bi-polar optic of the Cold War, in order to strengthen internal support for Atlantic policies. The essay therefore follows two main lines of inquiry: within and outside Trieste, within in 1945-1952, and outside 1953-1954, since, from the archival sources used, these emerge as priority areas in the two periods.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tête du roi Lancelot l'Ancien, l'aïeul du chevalier Lancelot, assassiné par le duc de Belle Garde, est plongée dans une fontaine merveilleuse bouillonnante, tandis que son corps, gardé par deux lions, est conservé dans un tombeau extraordinaire dont suintent des gouttes de sang aux propriétés curatives. Sur le plan textuel, les références aux merveilles qui suivent la mort de Lancelot l'Ancien dans l'Estoire del saint Graal, le Lancelot et la Queste del Saint Graal témoignent de la construction du cycle du Lancelot-Graal par l'intégration d'une dimension à la fois historique et généalogique. Or l'iconographie des manuscrits enluminés du cycle du Graal privilégie davantage la mise en série d'épisodes apparentés que la construction d'une logique véritablement cyclique. Le remploi de compositions ou de motifs iconographiques renforce la cohérence de l'univers chevaleresque et merveilleux ainsi créé sans pour autant impliquer d'effet de circularité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The fifteenth century saw a striking upturn in the number of texts from foreign vernaculars that were translated into Irish. Indeed, one might go so far as to speak in terms of a ‘translation trend’ in Ireland during the mid to late fifteenth century. A notable feature of this trend is that a particularly high number of these Irish translations are of romances; contextual and textual evidence suggests that the original exemplars for many of these translated texts appear to have come from England, though not all of them were necessarily in English. Irish translations of eight romances have survived to the present day: Guy of Warwick; Bevis of Hampton; La Queste de Saint Graal; Fierabras; Caxton’s Recuyell of the Histories of Troie; William of Palerne; the Seven Sages of Rome; and Octavian. This paper addresses two aspects of these texts of particular relevance to romance scholars who do not work within the sphere of Celtic studies. Firstly, it argues that certain aspects of the dissemination and reception of romance in Ireland are quite distinctive. Manuscript and textual evidence suggests that the religious orders, particularly the Franciscans, seem to have played a role in the importation and translation of these narratives. Secondly, examination of the Irish versions of romance tends to bear out an observation made by Flower many years ago, but not pursued by subsequent scholars: ‘texts of an unusual kind were current in Ireland, and it may be that interesting discoveries are to be made here’. Certain narrative features of several of these Irish translations diverge from all the surviving versions of the relevant romance in other languages and may witness to a variant exemplar that has since been lost from its own linguistic corpus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Iniciando-se por uma descrição longitudinal, seguida de interpretação "a posteriori", obteve-se categorias relativas a cada dimensão do psiquismo. Estas, em seu caráter de transversalidade, foram tomadas como esteios para as explicações acerca da passagem do sujeito da condição biológica à condição de sujeito falante. O norteamento dessa análise teve como ponto de partida a postulação acerca dessas dimensões, dos aspectos relativos as mesmas, e dos efetores referentes por essa passagem, cujo início tem a esses aspectos que respondem lugar quando a mãe se dispõe a apontar para o sujeito o limite entre o núcleo filogenético e as transformações sócio-histórica. A partir dessa delimitação, ocorre a assimilação de características, tipicamente humanas para, enfim, serem fixados pela lei paterna, os limites do “tornar-se humano”. Nesse ínterim, são observadas ocorrências relativas as dimensões mencionadas. Tratando-se de permanência de conteúdos mantidos fora do campo da simbolização, e excluídos da matriz imaginária, tem-se então a caracterização do real ~elo seu mecanismo específico: a foraclusão. Ainda se situa a pulsão no seu caráter impensável e inominável. Já as ações resultantes do recalcamento originário concorrem para a formação de marcas não-simbolizáveis que, como faceta do imaginário, se vinculam às informações do núcleo filogenético referentes aos protofantasmas, aqui considerado corno outra faceta desta dimensão. No que concerne ao simbólico, registra-se a significação como fundante da condição humana, resultante do recalcamento propriamente dito. Sendo assim, a humanização enquanto explicada pelo conceito de recalcamento, conforme evidencia a metapsicologia freudiana, não açambarça todas as nuances relativas ao humano; visto englobar apenas aquilo que é imaginado corno fantasma ou aquilo que e apresentado simbolicamente. Por isso, a utilização do conceito de foraclusão, da perspectiva lacaniana, justifica-se pelo fato de oferecer uma visão mais completa dessa dinâmica. Desse modo, se pode incluir no escopo do "tornar-se humano", aqueles elementos não passíveis de simbolização, bem como aqueles da realidade pulsional que não se apresentam no texto do fantasma; mas que, ao se constituírem como um "pano-de-fundo", possibilitam que a conteúdos simbólicos e imaginários viabilizem a socialização. De resto, a socialização é um processo que, originado do simbólico, se assenta no imaginário tomado como base. Para isto, o real, em seu efeito marginal, possibilita o retorno ao simbólico. A partir daí, se verifica a utilização dos elementos culturais, que são descobertos em função daquilo que a atividade fantasmática suscita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pós-graduação em Serviço Social - FCHS

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La terapia di resincronizzazione cardiaca (TRC) è un presidio non farmacologico che riduce la mortalità e la morbosità nei pazienti con scompenso refrattario alla terapia medica. La maggior parte dei dati riguardanti gli effetti della TRC coinvolgono i pazienti con le indicazioni consolidate seguenti: classe NYHA III-IV, ritardo della conduzione ventricolare (QRS>opp= 20 msec), disfunzione sistolica ventricolare sinistra (frazione di eiezione ventricolare sinistra >opp= 35%) e ritmo sinusale (RS). Mentre è noto che la fibrillazione atriale permanente (FA) sia presente in una porzione consistente dei pazienti con scompenso cardiaco, vi sono pochi dati riguardanti la sopravvivenza e gli effetti a lungo-termine della TRC in pazienti con scompenso cardiaco e fibrillazione atriale (FA); la maggior parte degli studi sono osservazionali ed hanno dimostrato che la TRC potrebbe conferire dei benefici a corto e medio termine anche in pazienti con FA permanente. Solo recentemente un ampio studio osservazionale ha descritto che, a lungo-termine, la TRC migliora significativamente la capacità funzionale, la frazione di eiezione e induce il rimodellamento inverso del ventricolo sinistro solamente in quei pazienti con FA dove la TRC viene combinata con l’ablazione del nodo atrio-ventricolare (NAV). La strategia ablativa del NAV infatti conferendo una stimolazione completa e costante, permette di eliminare gli effetti del ritmo spontaneo di FA (ritmo irregolare e tendenzialmente tachicardico) cheinterferisce in maniera importante con la stimolazione biventricolare in particolare durante gli sforzi fisici. Sulla base di queste premesse il presente studio si propone di valutare gli effetti a lungo-termine della TRC su pazienti con scompenso cardiaco e FA permanente focalizzando su due aspetti principali: 1) confrontando la sopravvivenza di pazienti con FA permanente rispetto ai pazienti in RS; 2) confrontando la sopravvivenza di pazienti in FA suddivisi secondo la modalità di controllo della frequenza con somministrazione di farmaci antiaritmici (gruppo FA-farm) oppure mediante controllo ablazione del NAV (gruppo FA-abl). Metodi e risultati: Sono presentati i dati di 1303 pazienti sottoposti consecutivamente ad impianto di dispositivo per la TRC e seguiti per un periodo mediano di 24 mesi. Diciotto pazienti sono stati persi durante il follow-up per cui la popolazione dello studio è rappresentata da una popolazione totale di 1295 pazienti di cui 1042 in RS e 243 (19%) in FA permanente. Nei pazienti con FA il controllo della frequenza cardiaca è stato effettuato mediante la somministrazione di farmaci anti-aritmici (gruppo FA-farm: 125 pazienti) oppure mediante ablazione del NAV (FA-abl: 118 pazienti). Rispetto ai pazienti in RS, i pazienti in FA permanente erano significativamente più vecchi, più spesso presentavano eziologia nonischemica, avevano una frazione di eiezione più elevata al preimpianto, una durata del QRS minore e erano più raramente trattati con un defibrillatore. Lungo un follow-up mediano di 24 mesi, 170/1042 pazienti in RS e 39/243 in FA sono deceduti (l’incidenza di mortalità a 1 anno era di 8,4% e 8,9%, rispettivamente). I rapporti di rischio derivanti dall’analisi multivariata con il 95% dell’intervallo di confidenza (HR, 95% CI) erano simili sia per la morte per tutte le cause che per la morte cardiaca (0.9 [0.57-1.42], p=0.64 e 1.00 [0.60-1.66] p=0.99, rispettivamente). Fra i pazienti con FA, il gruppo FA-abl presentava una durata media del QRS minore ed era meno frequentemente trattato con il defibrillatore impiantabile rispetto al gruppo FA-farm. Soli 11/118 pazienti del FA-abl sono deceduti rispetto a 28/125 nel gruppo FA-farm (mortalità cumulativa a 1 anno di 9,3% e 15,2% rispettivamente, p<0.001), con HR, 95% CI per FA-abl vs FA-farm di 0.15 [0.05-0.43],,p<0.001 per la mortalità per tutte le cause, di 0.18 [0.06-0.57], p=0.004 per la mortalità cardiaca, e di 0.09 [0.02-0.42], p<0.002 per la mortalità da scompenso cardiaco. Conclusioni: I pazienti con scompenso cardiaco e FA permanente trattati con la TRC presentano una simile sopravvivenza a lungo-termine di pazienti in RS. Nei pazienti in FA l’ablazione del NAV in aggiunta alla TRC migliora significativamente la sopravvivenza rispetto alla sola TRC; questo effetto è ottenuto primariamente attraverso una riduzione della morte per scompenso cardiaco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Linguaggio e numero rappresentano due aspetti centrali nella storia del genere umano, dal momento che competenze precoci sono già descritte a partire dalla preistoria, accompagnano l’uomo durante la sua esistenza e non sono condivise pienamente da altre specie. I neonati mostrano già delle predisposizioni per gli stimoli linguistici e numerici, queste abilità si sviluppano precocemente nei primi anni di vita e accompagnano il bambino durante l’iter scolastico e l’adulto nella vita di tutti i giorni. Linguaggio e numero condividono, quindi, molte caratteristiche e lo studio di tali competenze e delle loro relazioni aggiunge importanti riflessioni alle teorie dello sviluppo. Inoltre lo studio di questi aspetti in popolazioni con sviluppo tipico, atipico e a rischio permette una migliore comprensione della complessità dinamica dello sviluppo all’interno di una prospettiva neurocostruttivista interessata ai processi sottostanti e non agli esiti finali. La tesi analizza la letteratura sulle competenze linguistiche (orali: cap. 1; scritte: cap. 2; relazioni: cap. 3), numeriche (sistema numerico approssimativo: cap. 4; sistema numerico esatto: cap. 5; relazioni: cap. 6) e sulle loro relazioni (cap. 7), descrivendo le ricerche che si sono occupate delle popolazioni con sviluppo tipico, atipico e a rischio. In ogni singolo capitolo sono confrontate le competenze linguistiche e numeriche e le loro reciproche relazioni in bambini con sviluppo tipico (nati a termine) e bambini nati pretermine sani, caratterizzati da un’elevata immaturità neonatale. I dati sono stati raccolti alla fine della scuola dell’infanzia e dopo due anni di scolarizzazione per comprendere le traiettorie evolutive in due momenti rilevanti di transizione. I risultati emersi hanno aggiunto nuove considerazioni interessanti per i bambini con sviluppo tipico, soprattutto rispetto alle relazioni tra linguaggio e numero che rappresentano un campo non ancora esplorato. I dati emersi con i nati pretermine hanno mostrato che questi bambini non presentano un ritardo cognitivo generalizzato, ma difficoltà specifiche e relazioni diverse da quelle descritte nello sviluppo tipico, indicando la presenza di una traiettoria che possiamo definire atipica. I risultati ottenuti aggiungono importanti considerazioni teoriche rispetto alle relazioni tra competenze innate ed apprese e tra fasi di acquisizione e di consolidamento delle abilità. Al tempo stesso emergono importanti indicazioni cliniche per la programmazione di interventi specifici per il recupero delle competenze maggiormente compromesse nei nati pretermine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Queste dispense approfondiscono il tema dello sviluppo locale e dell' industria manifatturiera, presentando il fenomeno del distretto industriale all'italiana. Lo studio è facoltativo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi è stato suddiviso in tre parti. L’argomento principale è stato lo “Studio della componente antiossidante di oli ottenuti da olive mediante l’utilizzo di diversi sistemi e parametri tecnologici”. E’ ben noto come la qualità ossidativa di un olio di oliva dipenda oltre che dalla sua composizione in acidi grassi, dalla presenza di composti caratterizzati da un elevata attività antiossidante, ovvero le sostanze fenoliche. I composti fenolici contribuiscono quindi in maniera preponderante alla shelf life dell’olio extravergine di oliva. Inoltre sono state riscontrate delle forti correlazione tra alcune di queste sostanze e gli attributi sensoriali positivi di amaro e piccante. E’ poi da sottolineare come il potere antiossidante dei composti fenolici degli oli vergini di oliva, sia stato negli ultimi anni oggetto di considerevole interesse, poiché correlato alla protezione da alcune patologie come ad esempio quelle vascolari, degenerative e tumorali. Il contenuto delle sostanze fenoliche negli oli di oliva dipende da diversi fattori: cultivar, metodo di coltivazione, grado di maturazione delle olive e ovviamente dalle operazioni tecnologiche poiché possono variare il quantitativo di questi composti estratto. Alla luce di quanto appena detto abbiamo valutato l’influenza dei fattori agronomici (metodi di agricoltura biologica, integrata e convenzionale) e tecnologici (riduzione della temperatura della materia prima, aggiunta di coadiuvanti in fase di frangitura e di gramolatura, confronto tra tre oli extravergini di oliva ottenuti mediante diversi sistemi tecnologici) sul contenuto in composti fenolici di oli edibili ottenuti da olive (paper 1-3-4). Oltre alle sostanze fenoliche, negli oli di oliva sono presenti altri composti caratterizzati da proprietà chimiche e nutrizionali, tra questi vi sono i fitosteroli, ovvero gli steroli tipici del mondo vegetale, che rappresentano la frazione dell’insaponificabile quantitativamente più importante dopo gli idrocarburi. La composizione quali-quantitativa degli steroli di un olio di oliva è una delle caratteristiche analitiche più importanti nella valutazione della sua genuinità; infatti la frazione sterolica è significativamente diversa in funzione dell’origine botanica e perciò viene utilizzata per distinguere tra di loro gli oli e le loro miscele. Il principale sterolo nell’olio di oliva è il β- sitosterolo, la presenza di questo composto in quantità inferiore al 90% è un indice approssimativo dell’aggiunta di un qualsiasi altro olio. Il β-sitosterolo è una sostanza importante dal punto di vista della salute, poiché si oppone all’assorbimento del colesterolo. Mentre in letteratura si trovano numerosi lavori relativi al potere antiossidante di una serie di composti presenti nell’olio vergine di oliva (i già citati polifenoli, ma anche carotenoidi e tocoferoli) e ricerche che dimostrano invece come altri composti possano promuovere l’ossidazione dei lipidi, per quanto riguarda il potere antiossidante degli steroli e dei 4- metilsteroli, vi sono ancora poche informazioni. Per questo è stata da noi valutata la composizione sterolica in oli extravergini di oliva ottenuti con diverse tecnologie di estrazione e l’influenza di questa sostanza sulla loro stabilità ossidativa (paper 2). E’ stato recentemente riportato in letteratura come lipidi cellulari evidenziati attraverso la spettroscopia di risonanza nucleare magnetica (NMR) rivestano una importanza strategica da un punto di vista funzionale e metabolico. Questi lipidi, da un lato un lato sono stati associati allo sviluppo di cellule neoplastiche maligne e alla morte cellulare, dall’altro sono risultati anche messaggeri di processi benigni quali l’attivazione e la proliferazione di un normale processo di crescita cellulare. Nell’ambito di questa ricerca è nata una collaborazione tra il Dipartimento di Biochimica “G. Moruzzi” ed il Dipartimento di Scienze degli Alimenti dell’Università di Bologna. Infatti, il gruppo di lipochimica del Dipartimento di Scienze degli Alimenti, a cui fa capo il Prof. Giovanni Lercker, da sempre si occupa dello studio delle frazioni lipidiche, mediante le principali tecniche cromatografiche. L’obiettivo di questa collaborazione è stato quello di caratterizzare la componente lipidica totale estratta dai tessuti renali umani sani e neoplastici, mediante l’utilizzo combinato di diverse tecniche analitiche: la risonanza magnetica nucleare (1H e 13C RMN), la cromatografia su strato sottile (TLC), la cromatografia liquida ad alta prestazione (HPLC) e la gas cromatografia (GC) (paper 5-6-7)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilizzo degli FRP (Fiber Reinforced Polymer) nel campo dell’ingegneria civile riguarda essenzialmente il settore del restauro delle strutture degradate o danneggiate e quello dell’adeguamento statico delle strutture edificate in zona sismica; in questi settori è evidente la difficoltà operativa alla quale si va in contro se si volessero utilizzare tecniche di intervento che sfruttano materiali tradizionali. I motivi per cui è opportuno intervenire con sistemi compositi fibrosi sono: • l’estrema leggerezza del rinforzo, da cui ne deriva un incremento pressoché nullo delle masse sismiche ed allo stesso tempo un considerevole aumento della duttilità strutturale; • messa in opera senza l’ausilio di particolari attrezzature da un numero limitato di operatori, da cui un minore costo della mano d’opera; • posizionamento in tempi brevi e spesso senza interrompere l’esercizio della struttura. Il parametro principale che definisce le caratteristiche di un rinforzo fibroso non è la resistenza a trazione, che risulta essere ben al di sopra dei tassi di lavoro cui sono soggette le fibre, bensì il modulo elastico, di fatti, più tale valore è elevato maggiore sarà il contributo irrigidente che il rinforzo potrà fornire all’elemento strutturale sul quale è applicato. Generalmente per il rinforzo di strutture in c.a. si preferiscono fibre sia con resistenza a trazione medio-alta (>2000 MPa) che con modulo elastico medio-alto (E=170-250 GPa), mentre per il recupero degli edifici in muratura o con struttura in legno si scelgono fibre con modulo di elasticità più basso (E≤80 GPa) tipo quelle aramidiche che meglio si accordano con la rigidezza propria del supporto rinforzato. In questo contesto, ormai ampliamente ben disposto nei confronti dei compositi, si affacciano ora nuove generazioni di rinforzi. A gli ormai “classici” FRP, realizzati con fibre di carbonio o fibre di vetro accoppiate a matrici organiche (resine epossidiche), si affiancano gli FRCM (Fiber Reinforced Cementitious Matrix), i TRM (Textile Reinforced Mortars) e gli SRG (Steel Reinforced Grout) che sfruttano sia le eccezionali proprietà di fibre di nuova concezione come quelle in PBO (Poliparafenilenbenzobisoxazolo), sia un materiale come l’acciaio, che, per quanto comune nel campo dell’edilizia, viene caratterizzato da lavorazioni innovative che ne migliorano le prestazioni meccaniche. Tutte queste nuove tipologie di compositi, nonostante siano state annoverate con nomenclature così differenti, sono però accomunate dell’elemento che ne permette il funzionamento e l’adesione al supporto: la matrice cementizia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per garantire la sicurezza di tutte le operazioni in volo (avvicinamento, decollo, holding, ecc..) il decreto legge del 15 marzo del 2006 n. 151 ha imposto la redazione di opportune cartografie basate sul Regolamento ENAC per la Costruzione e l’Esercizio degli Aeroporti e sulla normativa internazionale ICAO così da poterle annettere agli Strumenti Urbanistici del territorio e governare lo sviluppo delle costruzioni. La sicurezza delle operazioni in volo è garantita attraverso delle Superfici di Delimitazione Ostacoli che impongono dei vincoli plano-altimetrici nelle aree limitrofe agli Aeroporti, quindi costruzioni, alberi e lo stesso terreno non devono forare queste superfici altrimenti diventerebbero “Ostacoli” alla navigazione aerea. Per gli ostacoli già presenti sono definiti dei provvedimenti da adottarsi in funzione della superficie che questi forano: potranno essere abbattuti se ricadenti in aree critiche come in prossimità delle piste oppure essere segnalati in mappe in uso ai piloti e anche con segnali visivi posizionati sugli stessi. Per quanto riguarda le future costruzioni, queste non potranno mai diventare Ostacolo in quanto sarà obbligatorio rispettare i vincoli plano-altimetrici. La tesi di laurea in questione vuole illustrare come si è arrivati alla redazione delle sopraccitate mappe nel caso specifico dell'Aeroporto Guglielmo Marconi di Bologna; sono analizzate nel primo capitolo le caratteristiche fisiche degli Aeroporti per acquisire una certa padronanza su termini tecnici che compaiono nei capitoli successivi (è inoltre presente un glossario). Nel secondo capitolo è individuato il percorso normativo che ha portato alla redazione dell’ultima revisione al Codice della Navigazione. Il capitolo 3 introduce le superfici di delimitazione ostacoli secondo quanto esposto nel Regolamento per la Costruzione e l’Esercizio degli Aeroporti di ENAC; il capitolo 4 è dedicato al lay-out dell’Aeroporto Guglielmo Marconi di Bologna. Infine la tesi si conclude con il capitoli 5 nel quale sono esposte le fasi e le metodologie usate per la realizzazione delle planimetrie e con il capitolo 6 in cui si discute delle problematiche sorte a causa dell’orografia del territorio che deve tenersi nella giusta considerazione per la definizione dei suddetti vincoli aeronautici.