905 resultados para teorema Borsuk-Ulam spazi di orbite gruppo fondamentale rivestimenti
Resumo:
La progettualità legata ai Bandi PON costituisce una parte consistente delle attività del Dipartimento. Attualmente sono 53 i progetti, legati al VII Programma Quadro, gestiti dal Dipartimento.
Resumo:
Lo studio intrapreso si è posto come obiettivo la caratterizzazione dal punto di vista elettrico dei materiali coinvolti nella realizzazione di accessori per applicazioni in HVDC, in particolare mescole isolanti, semiconduttive e varioresistive. La necessità di un lavoro di questo tipo viene giustificata dalla costante espansione dei sistemi in DC nella trasmissione dell’energia elettrica, i quali presentano caratteristiche fisiche che si differenziano sensibilmente da quelle tipiche dei tradizionali sistemi in AC, dunque richiedono componenti e materiali opportunamente progettati per garantire condizioni di servizio sicure e affidabili. L’obiettivo della trattazione consiste nello studio di analogie e differenze tra le proprietà elettriche fornite da prove su diverse configurazioni di provini, nella fattispecie di tipo piano e cilindrico cavo. In primo luogo si studiano i provini di tipo piano al fine di ricavare informazioni basilari sul materiale e sulla mescola che lo costituisce e di prendere decisioni relative al proseguimento dei test. Dopo aver effettuato un sufficiente numero di test su varie tipologie di provini piani e aver riconosciuto le mescole più performanti dal punto di vista elettrico, meccanico e termico, si procede alla realizzazione di provini cilindrici stampati, su cui si intraprendono le medesime misure effettuate per la configurazione piana. Questa seconda fase di caratterizzazione è fondamentale, in quanto consente di verificare che le proprietà già studiate su piastra si conservino in una geometria molto più simile a quella assunta dal prodotto finale evitando di sostenere costi onerosi per la produzione di un accessorio full-size. Il lavoro è stato svolto nel laboratorio elettrico di alta tensione della divisione R&D del gruppo Prysmian di Milano, leader mondiale nella produzione di sistemi in cavo per alte e altissime tensioni.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Nella tesi studiamo le densità con la proprietà di media per i sub-Laplaciani. In particolare determiniamo un’espressione generale per una densità positiva con la proprietà di media, su un insieme Ω generico che soddisfi certe prorpietà di regolarità. Troviamo inoltre delle stime della funzione di Green e del nucleo di Poisson per un qualsiasi sub-Laplaciano su un generico gruppo di Carnot e tramite queste stime troviamo delle condizioni sufficienti affinchè, con la densità precedentemente trovata, si possa avere una struttura di Γ-tripla sull’insieme Ω. Studiamo infine un problema inverso per il quale sarà fondamentale avere una struttura di Γ-tripla.
Modellistica di accensione per candele ad arco elettrico in motori a combustione interna alternativi
Resumo:
Nel panorama mondiale di contenimento delle emissioni inquinanti in atmosfera é divenuto sempre più importante limitare la parte derivante dai motori a combustione interna: l'utilizzo di motori GDI a carica stratificata e di ricircolo dei gas di scarico (EGR) sono esempi di tecnologie pensate proprio in tale ottica. Sia la presenza di un ambiente magro che di EGR nel cilindro, come anche l'aumento della pressione nel cilindro per l'incremento della pressione di sovralimentazione o del rapporto di compressione, hanno lo svantaggio di limitare la velocità di combustione e rendere più sfavorevoli le condizioni di accensione della miscela; in questo scenario diviene di fondamentale importanza il miglioramento dei sistemi di accensione, la creazione di modelli volti a simularli e la comprensione dei fenomeni che ne stanno alla base. Il seguente lavoro di tesi si inserisce proprio in questo contesto, indagando le varie fasi di cui si compone il fenomeno dell'accensione e le relazioni che legano le variabili di interesse fisico, verificate sulla base di evidenze sperimentali. Successivamente vengono analizzati i principali modelli d'accensione che sono stati proposti e implementati in codici computazionali fluidodinamici; l'analisi mette in luce le differenze, i punti di forza e le semplificazioni introdotte in ognuno di essi, in modo da poterli valutare criticamente. La suddetta analisi é anche utile per introdurre il modello frutto del lavoro del gruppo di ricerca dell'Università di Bologna; ci si concentra particolarmente su quest'ultimo poiché un obiettivo di questo lavoro di tesi é stato proprio l'implementazione e l'utilizzo del modello in un codice fluidodinamico tridimensionale quale CONVERGE CFD. L'implementazione é stata poi validata attraverso simulazioni su una geometria reale di un motore a combustione interna ad elevate prestazioni, confrontando i risultati ottenuti con il nuovo modello rispetto ai dati sperimentali sulla combustione.
Resumo:
Paesaggio ed infrastrutture viarie sono un binomio molto forte: il primo ha insito il concetto di accessibilità, in quanto non può esistere senza la presenza di un osservatore; la strada, invece, trova i fattori che la connotano nel suo rapporto con la morfologia su cui insiste. Le infrastrutture viarie sono elemento strutturale e strutturante non solo di un territorio, ma anche di un paesaggio. Le attuali esigenze di mobilità portano oggi a ripensare ed adeguare molte infrastrutture viarie: laddove è possibile si potenziano le strutture esistenti, in diversi casi si ricorre a nuovi tracciati o a varianti di percorso. Porsi il problema di conservare itinerari testimoni della cultura materiale ed economica di una società implica considerazioni articolate, che travalicano i limiti del sedime: una via è un organismo più complesso della semplice linea di trasporto in quanto implica tutta una serie di manufatti a supporto della mobilità e soprattutto il corridoio infrastrutturale che genera e caratterizza, ovvero una porzione variabile di territorio definita sia dal tracciato che dalla morfologia del contesto. L’evoluzione dei modelli produttivi ed economici, che oggi porta quote sempre maggiori di popolazione a passare un tempo sempre minore all’interno del proprio alloggio, rende la riflessione sulle infrastrutture viarie dismesse o declassate occasione per la progettazione di spazi per l’abitare collettivo inseriti in contesti paesaggistici, tanto urbani che rurali, tramite reti di percorsi pensate per assorbire tagli di mobilità specifici e peculiari. Partendo da queste riflessioni la Tesi si articola in: Individuazioni del contesto teorico e pratico: Lo studio mette in evidenza come la questione delle infrastrutture viarie e del loro rapporto con il paesaggio implichi riflessioni incrociate a diversi livelli e tramite diverse discipline. La definizione dello spazio fisico della strada passa infatti per la costruzione di un itinerario, un viaggio che si appoggia tanto ad elementi fisici quanto simbolici. La via è un organismo complesso che travalica il proprio sedime per coinvolgere una porzione ampia di territorio, un corridoio variabile ed articolato in funzione del paesaggio attraversato. Lo studio propone diverse chiavi di lettura, mettendo in luce le possibili declinazioni del tema, in funzione del taglio modale, del rapporto con il contesto, del regime giuridico, delle implicazioni urbanistiche e sociali. La mobilità dolce viene individuata quale possibile modalità di riuso, tutela e recupero, del patrimonio diffuso costituito dalle diversi reti di viabilità. Antologia di casi studio: Il corpo principale dello studio si basa sulla raccolta, analisi e studio dello stato dell’arte nel settore; gli esempi raccolti sono presentati in due sezioni: la prima dedicata alle esperienze più significative ed articolate, che affrontano il recupero delle infrastrutture viarie a più livelli ed in modo avanzato non concentrandosi solo sulla conversione del sedime, ma proponendo un progetto che coinvolga tutto il corridoio attraversato dall’infrastruttura; la seconda parte illustra la pratica corrente nelle diverse realtà nazionali, ponendo in evidenza similitudini e differenze tra i vari approcci.
Resumo:
SOMMARIO – Si presenta un macro modello di tipo reticolare in grado di riprodurre il comportamento in presenza di taglio e momento di nodi esterni trave-colonna di telai in calcestruzzo fibrorinforzato con fibre di acciaio
uncinato ed ordinario. Il caricamento del sistema è di tipo monotono come nel caso dell’analisi di pushover. Il modello considera la presenza di armature orizzontali e verticali della regione nodale e tiene in conto delle modalità
di rottura legate allo snervamento delle barre e allo schiacciamento delle regioni compresse in regime di sforzi pluriassiali. Il modello include le deformazioni flessionali della trave e della colonna in presenza di sforzo normale costante e restituisce la risposta del sistema colonna-nodo-trave (sub-assembralggio) tramite le curve carico-freccia all’estremità della semitrave. Per i singoli costituenti (trave, colonna e nodo) si è considerata la prima fessurazione, lo snervamento e lo schiacciamento delle regioni compresse e si sono fornite precise indicazioni sulla sequenza degli eventi che come è noto sono di fondamentale importanza per lo sviluppo di un progetto plastico che rispetti la gerarchia delle resistenze. Con l’uso del modello il controllo della gerarchia delle resistenze avviene a livello sezionale (lo snervamento delle barre deve avvenire prima dello schiacciamento delle regioni compresse) o di macro elemento (nella regione nodale lo snervamento delle staffe precede la crisi dei puntoni) e dell’intero elemento
sub-assemblaggio trave debole, colonna forte e nodo sovraresistente.
La risposta ottenuta con i modello proposto è in buon accordo con le risposte sperimentali disponibili in letteratura (almeno in termini di resistenza del sub-assemblaggio). Il modello è stato ulteriormente validato con analisi
numeriche agli elementi finiti condotte con il codice ATENA-2D. Le analisi numeriche sono state condotte utilizzando per il calcestruzzo fibroso adeguate leggi costitutive proposte dagli autori ed in grado di cogliere gli effetti
di softening e di resistenza residua a trazione legati alla presenza di fibre. Ulteriori sviluppi del modello saranno indirizzati a includere gli effetti di sfilamento delle barre d’armatura della trave e del conseguente degrado delle
tensioni d’aderenza per effetto di carichi monotonici e ciclici.
SUMMARY – A softened strut-and-tie macro model able to reproduce the flexural behavior of external beam-tocolumn joints with the presence of horizontal and vertical steel bars, including softening of compressed struts and yielding of main and secondary steel bars, is presented, to be used for the pushover analysis. The model proposed is able to calculate also the flexural response of fibrous reinforced concrete (FRC) beam-to-column sub-assemblages in term of a multilinear load-deflection curves. The model is able to take into account of the tensile behavior of main bars embedded in the surrounding concrete and of the softening of the compressed strut, the arrangement and percentage of the steel bars, the percentage and the geometry of steel fibers. First cracking, yielding of main steel and crushing of concrete were identified to determine the corresponding loads and displacement and to plot the simplified monotonic load-deflection curves of the sub-assemblages subjected in the column to constant vertical
load and at the tip of the beam to monotonically increasing lateral force. Through these load-delfection curves the component (beam, joint and column) that first collapse can be recognized and the capacity design can be verified.
The experimental results available in the literature are compared with the results obtained through the proposed model. Further, a validation of the proposed model is numerically made by using a non linear finite element program (ATENA-2D) able to analyze the flexural behavior of sub-assemblages.
Resumo:
O presente estudo ocupa-se de uma problemática em Didática – as relações entre a investigação científica e o desenvolvimento do campo – e assenta no pressuposto de que essas relações se constroem conjugando o pensamento e a atuação de investigadores, académicos, professores, e formadores de professores, numa ação conjunta conduzida com a participação comprometida das suas instituições profissionais e orientada para o desenvolvimento de todos os intervenientes, da sua área de atividade e, assim, do ensino/aprendizagem e dos alunos. Nesse sentido, o estudo foi concebido no intuito de criar condições propícias ao estreitamento das relações em foco, tendo em vista, simultaneamente, o aprofundamento do conhecimento sobre a problemática. Assumiu, pois, uma finalidade de intervenção no terreno e uma finalidade científica de avaliação da experiência proporcionada por essa intervenção, na expectativa do alargamento da compreensão do objeto de estudo. Na confluência dessas finalidades, a investigação desenvolveu-se como um estudo de caso norteado por duas proposições teóricas: - A colaboração entre académicos e professores, no âmbito de projetos de investigação em Didática, e o comprometimento das instituições profissionais de ambos com essas iniciativas colaborativas poderão favorecer o desenvolvimento do campo, dos atores que nele intervêm e das instituições implicadas. - A formação contínua de professores centrada na investigação em Didática poderá constituir espaço privilegiado para o desenvolvimento dessas dinâmicas de colaboração. No alinhamento destas proposições com a finalidade interventiva do estudo, diferentes atores em Didática foram desafiados a envolver-se numa iniciativa de investigação/formação colaborativa e daí resultou o caso analisado nesta investigação, o projeto ICA/DL (Investiga, Colabora e Atua em Didática de Línguas). Tal projeto, realizado no âmbito de uma parceria formalizada num Protocolo de Colaboração, envolveu uma equipa composta por cinco docentes do Departamento de Didática e Tecnologia Educativa (atual Departamento de Educação) da Universidade de Aveiro e por 4 professores da Escola Secundária Dr. João Carlos Celestino Gomes – Ílhavo e implicou ainda, institucionalmente, a universidade, a escola e o Centro de Formação das Escolas do Concelho de Ílhavo (atualmente, Centro de Formação de Associação de Escolas dos Concelhos de Ílhavo, Vagos e Oliveira do Bairro). As atividades do projeto iniciaram-se no final de 2003, com os primeiros encontros de negociação da parceria, e prolongaram-se até meados de 2007, altura em que a equipa reuniu pela última vez. O programa operacional central desenvolveu-se entre janeiro de 2004 e novembro de 2005 e concretizou-se num percurso de investigação e de formação em colaboração entre académicos e professores, concebido e implementado pela equipa e acreditado pelo Conselho Científico-Pedagógico da Formação Contínua. Tal programa centrou-se no estudo de um tópico em Didática de Línguas (a competência de aprendizagem plurilingue), na realização de intervenções de ensino/aprendizagem, no âmbito do mesmo tópico, junto dos alunos na escola e na avaliação da experiência com base em dados empíricos. A investigação que sobre o caso se conduziu, ao orientar-se, na prossecução da segunda finalidade estabelecida, para a compreensão da influência das dinâmicas colaborativas de investigação/formação sobre o desenvolvimento dos intervenientes (equipa, parceiros institucionais e alunos na escola), é também um estudo de impacte. A condução do processo empírico deu prioridade à produção de uma leitura integrada e complexa, capaz de evidenciar os impactes do projeto, interpretando-os com base na análise dos processos que terão condicionado a sua ocorrência. Nessa medida, a metodologia revestiu-se, intencionalmente, de uma natureza eminentemente interpretativa e qualitativa, socorrendo-se da triangulação de fontes, dados e procedimentos de análise. Contudo, o método integrou também procedimentos quantitativos, em particular, um exercício estatístico que, correlacionando totais de evidências verificadas e totais de evidências possíveis, procurou tornar mais precisa a avaliação da dimensão do impacte alcançado pelo projeto. Ensaiou-se, assim, uma abordagem metodológica em estudos de impacte em Educação, que propõe potenciar a compreensão de casos complexos, conjugando interpretação e objetivação/quantificação. A análise desvendou constrangimentos e obstáculos na vivência dos princípios conceptuais fundadores da noção de investigação/formação colaborativa que sustentou as proposições de partida e que fez emergir o ICA/DL. Tais dificuldades limitaram a assunção de responsabilidades partilhadas na condução processual da experiência, condicionaram dinâmicas supervisivas nem sempre colaborativas e facilitadoras e manifestaram-se em atitudes de compromisso por vezes frágil com o projeto. E terão afetado a concretização das expectativas iniciais de desenvolvimento de todos os participantes, determinando impactes de dimensão globalmente algo dececionante, assimetrias substantivas de influência da experiência levada a cabo no desenvolvimento profissional dos elementos da equipa e no desenvolvimento institucional e repercutindo-se em efeitos pouco expressivos no desenvolvimento dos alunos, no que toca a capacidades ativas de comunicação e de aprendizagem, enquadradas pelo tópico didático trabalhado no âmbito do projeto. Mas revelaram-se também sinais claros de que se avançou no sentido da concretização dos pressupostos colaborativos que sustentaram a iniciativa. Foi possível reunir académicos, professores e instituições educativas em torno da ideia de investigação/formação em colaboração e mobilizá-los como parceiros que se comprometeram na construção de um projeto assente nessa ideia. E percebeu-se que, apesar de pouco expressivo, houve impacte, pois há indicadores de que o projeto contribuiu positivamente para o desenvolvimento dos intervenientes. Na equipa, sinalizaram-se efeitos sobretudo nas práticas de ensino/aprendizagem das professoras e, no caso particular de uma delas, que teve uma participação mais envolvida em atividades de investigação, manifestaram-se impactes substancialmente mais notórios do que nos restantes elementos do grupo e que abrangeram diferentes dimensões da profissionalidade. As académicas, embora menos do que as professoras, também evidenciaram desenvolvimento, dominantemente, nos planos da investigação em Didática de Línguas e da formação de professores. E o ICA/DL parece ter proporcionado também impactes positivos junto das instituições implicadas, especialmente junto da universidade, designadamente, no que toca ao aprofundamento do pensamento sobre a problemática que sustentou a experiência e ao desenvolvimento de projetos de investigação. Por seu turno, os alunos, tendo revelado sinais modestos de reforço das suas capacidades de ação como interlocutores em situações de comunicação plurilingue e como aprendentes de línguas, deram mostras claras de terem tomado consciência de atitudes e de recursos que favorecem o desenvolvimento desses dois papéis. Para além disso, os responsáveis pela parceria, apesar dos obstáculos que limitaram o alcance dos seus propósitos, reafirmaram, na conclusão do projeto, a sua confiança nos princípios colaborativos que os uniram, antecipando a continuidade de uma experiência que entenderam como primeiro passo na concretização desses princípios. No balanço das fragilidades vividas e dos ganhos conquistados pelo ICA/DL, o estudo permite renovar a convicção inicial no poder transformador das práticas de investigação/formação colaborativa em Didática, e assim, na emergência de uma comunidade una de professores e de académicos, movida por um projeto comum de desenvolvimento da Educação. Nessa perspetiva, avançam-se sugestões que abrangem a investigação, o processo de ensino/aprendizagem nas escolas, a formação de professores, as políticas em Didática e a Supervisão.
Resumo:
O método de combinação de Nelson-Oppen permite que vários procedimentos de decisão, cada um projetado para uma teoria específica, possam ser combinados para inferir sobre teorias mais abrangentes, através do princípio de propagação de igualdades. Provadores de teorema baseados neste modelo são beneficiados por sua característica modular e podem evoluir mais facilmente, incrementalmente. Difference logic é uma subteoria da aritmética linear. Ela é formada por constraints do tipo x − y ≤ c, onde x e y são variáveis e c é uma constante. Difference logic é muito comum em vários problemas, como circuitos digitais, agendamento, sistemas temporais, etc. e se apresenta predominante em vários outros casos. Difference logic ainda se caracteriza por ser modelada usando teoria dos grafos. Isto permite que vários algoritmos eficientes e conhecidos da teoria de grafos possam ser utilizados. Um procedimento de decisão para difference logic é capaz de induzir sobre milhares de constraints. Um procedimento de decisão para a teoria de difference logic tem como objetivo principal informar se um conjunto de constraints de difference logic é satisfatível (as variáveis podem assumir valores que tornam o conjunto consistente) ou não. Além disso, para funcionar em um modelo de combinação baseado em Nelson-Oppen, o procedimento de decisão precisa ter outras funcionalidades, como geração de igualdade de variáveis, prova de inconsistência, premissas, etc. Este trabalho apresenta um procedimento de decisão para a teoria de difference logic dentro de uma arquitetura baseada no método de combinação de Nelson-Oppen. O trabalho foi realizado integrando-se ao provador haRVey, de onde foi possível observar o seu funcionamento. Detalhes de implementação e testes experimentais são relatados
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
La terapia di resincronizzazione cardiaca (TRC) è un presidio non farmacologico che riduce la mortalità e la morbosità nei pazienti con scompenso refrattario alla terapia medica. La maggior parte dei dati riguardanti gli effetti della TRC coinvolgono i pazienti con le indicazioni consolidate seguenti: classe NYHA III-IV, ritardo della conduzione ventricolare (QRS>opp= 20 msec), disfunzione sistolica ventricolare sinistra (frazione di eiezione ventricolare sinistra >opp= 35%) e ritmo sinusale (RS). Mentre è noto che la fibrillazione atriale permanente (FA) sia presente in una porzione consistente dei pazienti con scompenso cardiaco, vi sono pochi dati riguardanti la sopravvivenza e gli effetti a lungo-termine della TRC in pazienti con scompenso cardiaco e fibrillazione atriale (FA); la maggior parte degli studi sono osservazionali ed hanno dimostrato che la TRC potrebbe conferire dei benefici a corto e medio termine anche in pazienti con FA permanente. Solo recentemente un ampio studio osservazionale ha descritto che, a lungo-termine, la TRC migliora significativamente la capacità funzionale, la frazione di eiezione e induce il rimodellamento inverso del ventricolo sinistro solamente in quei pazienti con FA dove la TRC viene combinata con l’ablazione del nodo atrio-ventricolare (NAV). La strategia ablativa del NAV infatti conferendo una stimolazione completa e costante, permette di eliminare gli effetti del ritmo spontaneo di FA (ritmo irregolare e tendenzialmente tachicardico) cheinterferisce in maniera importante con la stimolazione biventricolare in particolare durante gli sforzi fisici. Sulla base di queste premesse il presente studio si propone di valutare gli effetti a lungo-termine della TRC su pazienti con scompenso cardiaco e FA permanente focalizzando su due aspetti principali: 1) confrontando la sopravvivenza di pazienti con FA permanente rispetto ai pazienti in RS; 2) confrontando la sopravvivenza di pazienti in FA suddivisi secondo la modalità di controllo della frequenza con somministrazione di farmaci antiaritmici (gruppo FA-farm) oppure mediante controllo ablazione del NAV (gruppo FA-abl). Metodi e risultati: Sono presentati i dati di 1303 pazienti sottoposti consecutivamente ad impianto di dispositivo per la TRC e seguiti per un periodo mediano di 24 mesi. Diciotto pazienti sono stati persi durante il follow-up per cui la popolazione dello studio è rappresentata da una popolazione totale di 1295 pazienti di cui 1042 in RS e 243 (19%) in FA permanente. Nei pazienti con FA il controllo della frequenza cardiaca è stato effettuato mediante la somministrazione di farmaci anti-aritmici (gruppo FA-farm: 125 pazienti) oppure mediante ablazione del NAV (FA-abl: 118 pazienti). Rispetto ai pazienti in RS, i pazienti in FA permanente erano significativamente più vecchi, più spesso presentavano eziologia nonischemica, avevano una frazione di eiezione più elevata al preimpianto, una durata del QRS minore e erano più raramente trattati con un defibrillatore. Lungo un follow-up mediano di 24 mesi, 170/1042 pazienti in RS e 39/243 in FA sono deceduti (l’incidenza di mortalità a 1 anno era di 8,4% e 8,9%, rispettivamente). I rapporti di rischio derivanti dall’analisi multivariata con il 95% dell’intervallo di confidenza (HR, 95% CI) erano simili sia per la morte per tutte le cause che per la morte cardiaca (0.9 [0.57-1.42], p=0.64 e 1.00 [0.60-1.66] p=0.99, rispettivamente). Fra i pazienti con FA, il gruppo FA-abl presentava una durata media del QRS minore ed era meno frequentemente trattato con il defibrillatore impiantabile rispetto al gruppo FA-farm. Soli 11/118 pazienti del FA-abl sono deceduti rispetto a 28/125 nel gruppo FA-farm (mortalità cumulativa a 1 anno di 9,3% e 15,2% rispettivamente, p<0.001), con HR, 95% CI per FA-abl vs FA-farm di 0.15 [0.05-0.43],,p<0.001 per la mortalità per tutte le cause, di 0.18 [0.06-0.57], p=0.004 per la mortalità cardiaca, e di 0.09 [0.02-0.42], p<0.002 per la mortalità da scompenso cardiaco. Conclusioni: I pazienti con scompenso cardiaco e FA permanente trattati con la TRC presentano una simile sopravvivenza a lungo-termine di pazienti in RS. Nei pazienti in FA l’ablazione del NAV in aggiunta alla TRC migliora significativamente la sopravvivenza rispetto alla sola TRC; questo effetto è ottenuto primariamente attraverso una riduzione della morte per scompenso cardiaco.
Resumo:
Il presente lavoro comincia con una descrizione dettagliata del “McMaster Model of Family Functionig” (MMFF), modello che al suo interno integra una teoria multidimensionale sul funzionamento familiare, diversi strumenti di auto ed etero valutazione e chiare indicazioni terapeutiche racchiuse all’interno della “Problem Centered System Therapy of the Family” (PCSTF). Grazie alla sua completezza il Modello fornisce ai clinici metodi coerenti, pratici ed empiricamente validi per valutare e trattare le famiglie, essi inoltre, sono stati formulati in modo da essere adattabili a differenti setting clinici e di ricerca, applicabili ad un’ampia gamma di problematiche e verificabili empiricamente. Obiettivo finale della presente ricerca è stato quello di porre le basi per l’esportazione del MMFF in Italia e poter quindi procedere alla sua applicazione in ambito clinico. La ricerca è cominciata alla Brown University con la traduzione dall’inglese all’italiano del Family Assessment Device (FAD), uno degli strumenti di autovalutazione compresi nel MMFF, ed è in seguito continuata con la validazione del suddetto strumento in un campione di 317 soggetti appartenenti alla popolazione generale italiana. Il FAD si è dimostrato uno strumento valido ed affidabile, in grado quindi di fornire valutazioni stabili e coerenti anche nella sua versione italiana. Il passo successivo è stato caratterizzato dalla somministrazione di FAD, Symptom Questionnaire (SQ) e delle Psychological Well-Being scales (PWB) a 289 soggetti reclutati nella popolazione generale. In accordo con il modello bipsicosociale che vede l’ambiente familiare come il più immediato gruppo di influenza psicosociale dello stato di benessere o malessere dell’individuo, i nostri dati confermano una stretta relazione tra scarso funzionamento familiare, spesso espresso attraverso difficoltà di comunicazione, di problem solving e scarso coinvolgimento affettivo e distress psicologico esperito con sintomi depressivi, ansiogeni ed ostilità. I nostri dati sottoliano inoltre come un funzionamento familiare positivo sia altamente correlato ad elevati livelli di benessere psicologico. Obiettivo della parte finale del lavoro ed anche il più importante, è stato quello di esplorare l’efficacia della Problem Centered Systems Therapy of the Family nella gestione della perdita di efficacia degli antidepressivi nel trattamento della depressione ricorrente. 20 soggetti con diagnosi di depressione maggiore ricorrente secondo il DSM-IV sono stati randomizzati a due diverse condizioni di trattamento: 1) aumento del dosaggio dell’antidepressivo e clinical management, oppure 2) mantenimento dello stesso dosaggio di antidepressivo e PCSTF. I dati di questo studio mettono in evidenza come, nel breve termine, PCSTF e farmacoterapia sono ugualmente efficaci nel ridurre la sintomatologia depressiva. Diversamente, ad un follow-up di 12 mesi, la PCSTF si è dimostrata altamente superiore all’aumento del farmaco ner prevenire le ricadute. Nel gruppo sottoposto all’aumento del farmaco infatti ben 6 soggetti su 7 ricadono entro l’anno. Nel gruppo assegnato a terapia familiare invece solo 1 soggetto su 7 ricade. Questi risultati sono in linea con i dati della letteratura che sottolineano l’elevata probabilità di una seconda ricaduta dopo l’aumento dell’antidepressivo all’interno di una farmacoterapia di mantenimento e suggeriscono l’efficacia dell’utilizzo di strategie psicoterapiche nella prevenzione della ricaduta in pazienti con depressione ricorrente.