183 resultados para Traffic jam, transizioni di fase, optimal velocity
Resumo:
Recenti analisi sull’intero trascrittoma hanno rivelato una estensiva trascrizione di RNA non codificanti (ncRNA), le quali funzioni sono tuttavia in gran parte sconosciute. In questo lavoro è stato dimostrato che alte dosi di camptotecina (CPT), un farmaco antitumorale inibitore della Top1, aumentano la trascrizione di due ncRNA antisenso in 5’ e 3’ (5'aHIF-1α e 3'aHIF-1α rispettivamente) al locus genico di HIF-1α e diminuiscono i livelli dell’mRNA di HIF-1α stesso. Gli effetti del trattamento sono Top1-dipendenti, mentre non dipendono dal danno al DNA alla forca di replicazione o dai checkpoint attivati dal danno al DNA. I ncRNA vengono attivati in risposta a diversi tipi di stress, il 5'aHIF-1α è lungo circa 10 kb e possiede sia il CAP in 5’ sia poliadenilazione in 3’ (in letteratura è noto che il 3'aHIF-1α è un trascritto di 1,7 kb, senza 5’CAP né poliadenilazione). Analisi di localizzazione intracellulare hanno dimostrato che entrambi sono trascritti nucleari. In particolare 5'aHIF-1α co-localizza con proteine del complesso del poro nucleare, suggerendo un suo possibile ruolo come mediatore degli scambi della membrana nucleare. È stata dimostrata inoltre la trascrizione dei due ncRNA in tessuti di tumore umano del rene, evidenziandone possibili ruoli nello sviluppo del cancro. È anche noto in letteratura che basse dosi di CPT in condizioni di ipossia diminuiscono i livelli di proteina di HIF-1α. Dopo aver dimostrato su diverse linee cellulari che i due ncRNA sopracitati non potessero essere implicati in tale effetto, abbiamo studiato le variazioni dell’intero miRnoma alle nuove condizioni sperimentali. In tal modo abbiamo scoperto che il miR-X sembra essere il mediatore molecolare dell’abbattimento di HIF-1α dopo trattamento con basse dosi di CPT in ipossia. Complessivamente, questi risultati suggeriscono che il fattore di trascrizione HIF-1α venga finemente regolato da RNA non-codificanti indotti da danno al DNA.
Resumo:
In the thesis we present the implementation of the quadratic maximum likelihood (QML) method, ideal to estimate the angular power spectrum of the cross-correlation between cosmic microwave background (CMB) and large scale structure (LSS) maps as well as their individual auto-spectra. Such a tool is an optimal method (unbiased and with minimum variance) in pixel space and goes beyond all the previous harmonic analysis present in the literature. We describe the implementation of the QML method in the {\it BolISW} code and demonstrate its accuracy on simulated maps throughout a Monte Carlo. We apply this optimal estimator to WMAP 7-year and NRAO VLA Sky Survey (NVSS) data and explore the robustness of the angular power spectrum estimates obtained by the QML method. Taking into account the shot noise and one of the systematics (declination correction) in NVSS, we can safely use most of the information contained in this survey. On the contrary we neglect the noise in temperature since WMAP is already cosmic variance dominated on the large scales. Because of a discrepancy in the galaxy auto spectrum between the estimates and the theoretical model, we use two different galaxy distributions: the first one with a constant bias $b$ and the second one with a redshift dependent bias $b(z)$. Finally, we make use of the angular power spectrum estimates obtained by the QML method to derive constraints on the dark energy critical density in a flat $\Lambda$CDM model by different likelihood prescriptions. When using just the cross-correlation between WMAP7 and NVSS maps with 1.8° resolution, we show that $\Omega_\Lambda$ is about the 70\% of the total energy density, disfavouring an Einstein-de Sitter Universe at more than 2 $\sigma$ CL (confidence level).
Resumo:
Questa ricerca presenta i risultati di una indagine volta a verificare la reale efficacia di rinforzo corticale su rocce carbonatiche di differenti caratteristiche mineralogiche, utilizzando consolidanti inorganici in soluzione acquosa quali l’Ossalato Ammonico (AmOX) e il Diammonio Fosfato Acido (DAHP). Le matrici carbonatiche scelte sono quelle del marmo invecchiato e una biomicrite. Sui campioni sono state effettuate indagini (SEM,MIP,XRD,MO,TG-DTA) di caratterizzazione prima e dopo i trattamenti volte a valutare eventuali effetti di rinforzo e misure fisiche di suscettività all’acqua. L’efficacia dei consolidanti inorganici è stata comparata con diversi consolidanti organici e ibridi presenti in commercio ed utilizzati in ambito conservativo. L'efficacia si è mostrata fortemente legata al fabric del materiale e alle modalità di strutturazione del prodotto di neomineralizzazione all’interno della compagine deteriorata. Nel caso del trattamento con AmOx il soluzione acquosa al 4%, la whewellite è l’unica fase di neoformazione riscontrata; la sua crescita avviene con un meccanismo essenzialmente topochimico. Nei materiali carbonatici compatti si possono ottenere solo modesti spessori di coating di neoformazione; per le rocce porose, contenenti difetti come lesioni, pori o micro-fratture, l’efficacia del trattamento può risultare più incisiva. Questo trattamento presenta lo svantaggio legato alla rapidissima formazione dei cristalli di whewellite che tendono a passivare le superfici impedendo la progressione della reazione; il vantaggio è connesso alla facile applicazione in cantiere. Nel caso del DAHP sulla matrice carbonatica trattata, si formano cluster cristallini contenenti specie più o meno stabili alcune riconducibili all’idrossiapatite. La quantità e qualità delle fasi, varia fortemente in funzione della temperatura, pH, pressione con conseguenze interferenza nelle modalità di accrescimento dei cristalli. Il trattamento alla stato attuale appare comunque di notevole interesse ma allo stesso tempo difficilmente applicabile e controllabile nelle reali condizioni operative di un cantiere di restauro.
Resumo:
Il presente lavoro ha avuto lo scopo di identificare le caratteristiche di filtrabilità della birra attraverso lo svolgimento di prove tecnologiche di filtrazione in scala di laboratorio e su scala pilota, utilizzando diverse tipologie di sistemi filtranti e sperimentando diversi materiali di membrana. La fase preliminare della caratterizzazione della filtrabilità della birra è stata condotta presso i laboratori del Campden-BRI – The Brewing Research International, Inghilterra, mentre le prove tecnologiche su scala pilota si sono svolte presso il CERB – Centro di Eccellenza per la Ricerca sulla Birra. Le prove di filtrazione e le analisi sui campioni hanno permesso di verificare le performance delle diverse membrane utilizzate in risposta alla variazione dei principali parametri del processo di filtrazione tangenziale. Sono stati analizzati diversi parametri di qualità della birra filtrata attraverso il monitoraggio del processo e lo svolgimento di prove analitiche sul prodotto volte ad evidenziare gli effetti delle differenti tecnologie adottate. Per quanto riguarda le prove di laboratorio per la caratterizzazione della filtrabilità della birra, l’analisi della PCS (Photon Correlation Spectroscopy) è stata utilizzata per verificare l’influenza di diversi trattamenti enzimatici sulla efficienza del processo di filtrazione e la loro influenza sulla stabilità colloidale della birra filtrata. Dai risultati ottenuti è emerso che il PCS è un valido strumento per determinare la distribuzione in classi di diametro e il diametro medio effettivo delle particelle solide in sospensione nella birra e può essere utilizzato sia per predire la stabilità della birra filtrata, sia per monitorare il processo di filtrazione in tempo reale.
Resumo:
Il virus dell’Epatite E (HEV) e i calicivirus (norovirus e sapovirus) causano rispettivamente epatite acuta e gastroenterite. Questi virus sono considerati agenti eziologici emergenti rappresentando un problema di sanità pubblica e di sicurezza alimentare. Per HEV, è ormai confermata la trasmissione zoonotica, e il suino è considerato il principale serbatoio asintomatico. Norovirus e sapovirus infettano sia i bambini che gli adulti. Sebbene questi virus siano stati identificati anche negli animali, la possibile trasmissione zoonotica non è stata dimostrata in modo conclusivo. Il lavoro sperimentale condotto durante il Dottorato di Ricerca è stato focalizzato sullo studio degli aspetti biologici ed epidemiologici dell’infezioni causate da HEV e da calicivirus. Per la prima volta in Italia, i risultati ottenuti hanno dimostrato la presenza del virus HEV nei fegati di suini in fase di macellazione ed hanno confermato, attraverso la ricerca di anticorpi, un’elevata esposizione degli animali al virus. Inoltre, mediante la produzione di antigeni e reattivi immunologici, sono stati messi a punto test diagnostici per la ricerca di anticorpi contro HEV nel suino e nei cinghiali. Il lavoro svolto per la ricerca di calicivirus nel suino e nel bovino ha dimostrato la circolazione dei sapovirus in popolazioni di suini asintomatici e la presenza di norovirus nei vitelli affetti da diarrea acuta.Sono stati inoltre sviluppati reattivi immunologici, utilizzando proteine del capside di norovirus umano e bovino espresse con il sistema ricombinante baculovirus. Questi hanno permesso di evidenziare la presenza di anticorpi contro norovirus umano e bovino, in sieri di veterinari professionalmente esposti. Inoltre, sono stati utilizzati per sviluppare metodi per la concentrazione dei virus da matrici a bassa concentrazione.Infine, le VLP sono state utilizzate per valutare l’attivazione del sistema immunitario umano ex vivo. I risultati hanno dimostrato che le VLP di NoV stimolano il sistema immunitario attivando risposte di tipo Th1 e Th2 .
Resumo:
This thesis deals with the study of optimal control problems for the incompressible Magnetohydrodynamics (MHD) equations. Particular attention to these problems arises from several applications in science and engineering, such as fission nuclear reactors with liquid metal coolant and aluminum casting in metallurgy. In such applications it is of great interest to achieve the control on the fluid state variables through the action of the magnetic Lorentz force. In this thesis we investigate a class of boundary optimal control problems, in which the flow is controlled through the boundary conditions of the magnetic field. Due to their complexity, these problems present various challenges in the definition of an adequate solution approach, both from a theoretical and from a computational point of view. In this thesis we propose a new boundary control approach, based on lifting functions of the boundary conditions, which yields both theoretical and numerical advantages. With the introduction of lifting functions, boundary control problems can be formulated as extended distributed problems. We consider a systematic mathematical formulation of these problems in terms of the minimization of a cost functional constrained by the MHD equations. The existence of a solution to the flow equations and to the optimal control problem are shown. The Lagrange multiplier technique is used to derive an optimality system from which candidate solutions for the control problem can be obtained. In order to achieve the numerical solution of this system, a finite element approximation is considered for the discretization together with an appropriate gradient-type algorithm. A finite element object-oriented library has been developed to obtain a parallel and multigrid computational implementation of the optimality system based on a multiphysics approach. Numerical results of two- and three-dimensional computations show that a possible minimum for the control problem can be computed in a robust and accurate manner.
Resumo:
La Comunità Europea, alla luce dei recenti eventi alluvionali occorsi nei Paesi Membri ed al progressivo aumento dei danni economici da essi provocati, ha recentemente emanato una direttiva (Direttiva Europea 2007/60/CE, Flood Directive) per la valutazione e la predisposizione di piani di gestione del rischio idraulico alluvionale. Con riferimento a tale contesto l’attività di ricerca condotta si è concentrata sulla valutazione delle potenzialità offerte dalla modellistica numerico-idraulica mono e bidimensionale quale strumento per l’attuazione della Direttiva 2007/60. Le attività sono state affrontate ponendo particolare attenzione alla valutazione dei termini di incertezza che caratterizzano l’applicazione dei modelli numerico-idraulici, esaminando i possibili effetti di tale incertezza sulla mappatura della pericolosità idraulica. In particolare, lo studio si concentra su diversi tratti fluviali del corso medio inferiore del Fiume Po e si articola in tre parti: 1) analisi dell’incertezza connessa alla definizione delle scale di deflusso in una generica sezione fluviale e valutazione dei suoi effetti sulla calibrazione dei modelli numerici quasi-bidimensionali (quasi-2D); 2) definizione di mappe probabilistiche di allagamento per tratti fluviali arginati in presenza di tre sorgenti di incertezza: incertezza nelle condizioni al contorno di monte, nelle condizioni di valle e nell’identificazione delle eventuali brecce arginali; 3) valutazione dell’applicabilità di un modello quasi-2D per la definizione, a grande scala spaziale, di strategie alternative al tradizionale rialzo dei manufatti arginali per la mitigazione del rischio alluvionale associato a eventi di piena catastrofici. Le analisi condotte, oltre ad aver definito e valutato le potenzialità di metodologie e modelli idraulici a diversa complessità, hanno evidenziato l’entità e l’impatto dei più importanti elementi d’incertezza, sottolineando come la corretta mappatura della pericolosità idraulica debba sempre essere accompagnata da una valutazione della sua incertezza.
Resumo:
L’invarianza spaziale dei parametri di un modello afflussi-deflussi può rivelarsi una soluzione pratica e valida nel caso si voglia stimare la disponibilità di risorsa idrica di un’area. La simulazione idrologica è infatti uno strumento molto adottato ma presenta alcune criticità legate soprattutto alla necessità di calibrare i parametri del modello. Se si opta per l’applicazione di modelli spazialmente distribuiti, utili perché in grado di rendere conto della variabilità spaziale dei fenomeni che concorrono alla formazione di deflusso, il problema è solitamente legato all’alto numero di parametri in gioco. Assumendo che alcuni di questi siano omogenei nello spazio, dunque presentino lo stesso valore sui diversi bacini, è possibile ridurre il numero complessivo dei parametri che necessitano della calibrazione. Si verifica su base statistica questa assunzione, ricorrendo alla stima dell’incertezza parametrica valutata per mezzo di un algoritmo MCMC. Si nota che le distribuzioni dei parametri risultano in diversa misura compatibili sui bacini considerati. Quando poi l’obiettivo è la stima della disponibilità di risorsa idrica di bacini non strumentati, l’ipotesi di invarianza dei parametri assume ancora più importanza; solitamente infatti si affronta questo problema ricorrendo a lunghe analisi di regionalizzazione dei parametri. In questa sede invece si propone una procedura di cross-calibrazione che viene realizzata adottando le informazioni provenienti dai bacini strumentati più simili al sito di interesse. Si vuole raggiungere cioè un giusto compromesso tra lo svantaggio derivante dall’assumere i parametri del modello costanti sui bacini strumentati e il beneficio legato all’introduzione, passo dopo passo, di nuove e importanti informazioni derivanti dai bacini strumentati coinvolti nell’analisi. I risultati dimostrano l’utilità della metodologia proposta; si vede infatti che, in fase di validazione sul bacino considerato non strumentato, è possibile raggiungere un buona concordanza tra le serie di portata simulate e osservate.
Resumo:
In una situazione caratterizzata dalla scarsità delle risorse finanziare a disposizione degli enti locali, che rende necessario il contributo dei privati alla realizzazione delle opere pubbliche, e dalla scarsità delle risorse ambientali, che impone di perseguire la sostenibilità degli interventi, la tesi si pone l’obiettivo di rendere le realizzazioni di nuove infrastrutture viarie “attive” rispetto al contesto in cui si collocano, garantendo l’impegno di tutte parti coinvolte. Si tratta di ottenere il contributo dei privati oltre che per le opere di urbanizzazione primaria, funzionali all’insediamento stesso, anche per la realizzazione di infrastrutture viarie non esclusivamente dedicate a questo, ma che sono necessarie per garantirne la sostenibilità. Tale principio, che viene anche denominato “contributo di sostenibilità”, comincia oggi a trovare un’applicazione nelle pratiche urbanistiche, sconta ancora alcune criticità, in quanto i casi sviluppati si basano spesso su considerazioni che si prestano a contenziosi tra operatori privati e pubblica amministrazione. Ponendosi come obiettivo la definizione di una metodologia di supporto alla negoziazione per la determinazione univoca e oggettiva del contributo da chiedere agli attuatori delle trasformazioni per la realizzazione di nuove infrastrutture viarie, ci si è concentrati sullo sviluppo di un metodo operativo basato sull’adozione dei modelli di simulazione del traffico a 4 stadi. La metodologia proposta è stata verificata attraverso l’applicazione ad un caso di studio, che riguarda la realizzazione di un nuovo asse viario al confine tra i comuni di Castel Maggiore ed Argelato. L’asse, indispensabile per garantire l’accessibilità alle nuove aree di trasformazione che interessano quel quadrante, permette anche di risolvere alcune criticità viabilistiche attualmente presenti. Il tema affrontato quindi è quello della determinazione del contributo che ciascuno degli utilizzatori del nuovo asse dovrà versare al fine di consentirne la realizzazione. In conclusione, si formulano alcune considerazioni sull’utilità della metodologia proposta e sulla sua applicabilità a casi analoghi.
Resumo:
Lo scavo della chiesa di Santa MAria Maggiore ha permesso di acquisire nuove importanti informazioni sulla storia della città di Trento, sulla città tardo antica e sul processo di cristianizzazione. Il primo impianto ecclesiastico, datato a dopo la metà del V d. C. secolo, sorge su un precedente impianto termale realizzato intorno al II secolo d. C. ed appare caratterizzato da un forte carattere monumentale. La chiesa, a tre navate, presentava un presbiterio rialzato decorato in una prima fase da un opus sectile poi sostituito nel VI secolo da un mosaico policromo. Sono state rinvenute inoltre, parti consistenti della decorazione architettonica di fine VIII secolo pertinente questo stesso impianto che non subirà importanti modifiche fino alla realizzazione del successivo edificio di culto medievale, meno esteso e dai caratteri decisamente meno monumentali, caratterizzato dalla presenza di un esteso campo cimiteriale rinvenuto a nord della chiesa. A questo impianto ne succede un terzo, probabilmente a due navate, e dalla ricca decorazione pittorica demolito in età tardo rinascimentale per la realizzazione della chiesa attuale.
Resumo:
In this thesis, we extend some ideas of statistical physics to describe the properties of human mobility. By using a database containing GPS measures of individual paths (position, velocity and covered space at a spatial scale of 2 Km or a time scale of 30 sec), which includes the 2% of the private vehicles in Italy, we succeed in determining some statistical empirical laws pointing out "universal" characteristics of human mobility. Developing simple stochastic models suggesting possible explanations of the empirical observations, we are able to indicate what are the key quantities and cognitive features that are ruling individuals' mobility. To understand the features of individual dynamics, we have studied different aspects of urban mobility from a physical point of view. We discuss the implications of the Benford's law emerging from the distribution of times elapsed between successive trips. We observe how the daily travel-time budget is related with many aspects of the urban environment, and describe how the daily mobility budget is then spent. We link the scaling properties of individual mobility networks to the inhomogeneous average durations of the activities that are performed, and those of the networks describing people's common use of space with the fractional dimension of the urban territory. We study entropy measures of individual mobility patterns, showing that they carry almost the same information of the related mobility networks, but are also influenced by a hierarchy among the activities performed. We discover that Wardrop's principles are violated as drivers have only incomplete information on traffic state and therefore rely on knowledge on the average travel-times. We propose an assimilation model to solve the intrinsic scattering of GPS data on the street network, permitting the real-time reconstruction of traffic state at a urban scale.
Resumo:
The present work aims for investigate the influence of electrospun Nylon 6,6 nanofibrous mat on the behavior of composite laminates. The main idea is that nanofibrous interleaved into particular ply-to-ply interfaces of a laminate can lead to significant improvements of mechanical properties and delamination/damage resistance. Experimental campaigns were performed to investigate how nanofibers affect both the static and dynamic behavior of the laminate in which they are interleaved. Fracture mechanics tests were initially performed on virgin and 8 different configuration of nanomodified specimens. The purposes of this first step of the work are to understand which geometrical parameters of the nanointerleave influence the behavior of the laminate and, to find the optimal architecture of the nanofibrous mat in order to obtain the best reinforcement. In particular, 3 morphological parameters are investigated: nanofibers diameter, nanofibers orientation and thickness of the reinforce. Two different values for each parameter have been used, and it leads to 8 different configurations of nanoreinforce. Acoustic Emission technique is also used to monitor the tests. Once the optimum configuration has been found, attention is focused on the mechanism of reinforce played by the nanofibers during static and dynamic tests. Low velocity impacts and free decay tests are performed to attest the effect of nanointerlayers and the reinforce mechanism during the dynamic loads. Bump tests are performed before and after the impact on virgin and two different nanomodified laminates configurations. The authors focused their attention on: vibrational behavior, low velocity impact response and post-impact vibration behavior of the nano-interleaved laminates with respect to the response of non-nanomodified ones. Experiments attest that nanofibers significantly strength the delamination resistance of the laminates and increase some mechanical properties. It is demonstrated that the nanofibers are capable to continue to carry on the loads even when the matrix around them is broken.
Resumo:
La presente ricerca muove i suoi primi passi dall’ipotesi generale che il paradigma relazionale possa offrire al mondo dei servizi sociali una configurazione diversa, talora meno utopistica, del community work. Sebbene, infatti, in questi anni il sistema di offerta dei servizi si sia arricchito di principi come la co-progettazione e la co-responsabilità delle azioni, il lavoro di comunità resta ancora molto distante dal lavoro generalmente svolto nei servizi sociali territoriali, incapaci per ragioni strutturali e culturali di accogliere dentro di sé tale funzione. L’idea dalla quale trae origine la presente tesi di dottorato, è pertanto quella di arricchire la definizione di servizi sociali relazionali. Partendo dalle dimensioni che in letteratura sociologica e nei principali modelli teorici di social work definiscono un servizio alla persona quale servizio relazionale, nella prima parte teorica viene ipotizzata una trasformazione parziale del welfare regionale emiliano, poiché ai mutamenti culturali di questi anni non ha fatto seguito un cambiamento reale dei modelli operativi maggiormente basati sullo sviluppo delle competenze. Nella seconda parte della tesi, la ricerca empirica si focalizza sui progetti “family friendly” realizzati nel Comune di Parma, collocati in una logica di welfare societario e basati sull’apporto di soggetti di Terzo Settore, responsabili di ogni fase di realizzazione delle attività. La ricerca si avvale prevalentemente di tecniche qualitative e in alcuni tratti assume le caratteristiche della ricerca-azione. Nelle conclusioni, il contesto territoriale studiato rivela grande ricchezza dei legami strutturali, ma anche necessità di un rafforzamento dei legami interni. La forza dei servizi prodotti si situa, inoltre, nella sovrafunzionalità del legame tra volontari e famiglie, e di questo elemento dovrebbe arricchirsi anche il social work che scelga di adottare una prospettiva metodologica di lavoro relazionale.
Resumo:
Introduzione: La sindrome delle gambe senza riposo (RLS) è un disturbo caratterizzato da sensazione spiacevole disestesica generalmente agli arti inferiori, che si presenta o peggiora nelle ore serali-notturne e che migliora con il movimento. Studi clinici hanno mostrato una maggiore prevalenza di RLS negli emicranici, mentre mancano studi condotti su popolazione generale non selezionata. Lo scopo di questo studio era quello di valutare la associazione tra emicrania e RLS in una popolazione italiana adulta. Inoltre è stata valutata l’associazione tra RLS e cefalea fenotipizzata attraverso metodica di principal components analysis (PCA). Materiali e metodi: la presenza di RLS e di emicrania è stata determinata attraverso questionari basati sui criteri diagnostici correnti in un campione di 1567 partecipanti di un fase preliminare di uno studio in corso sulla popolazione adulta della Val Venosta (BZ). Risultati: gli emicranici hanno presentato un significativo maggior rischio di soffrire di RLS rispetto ai non emicranici, anche dopo aggiustamento per fattori confondenti come età, sesso, depressione, ansia e qualità del sonno (p = 0.049). Questa associazione non era modificata dalla presenza di aura emicranica, di cause possibili di RLS secondaria e dalla frequenza di attacchi emicranici. Inoltre la RLS non era risultata significativamente associata alla cefalea di tipo tensivo (TTH). Dall’analisi di associazione tra RLS e cefalea fenotipizzata attraverso PCA era emerso che la componente 1, caratterizzata da sintomi di sensitivizzazione del sistema nervoso centrale (SNC), correlava significativamente con la presenza di RLS (p = 0.021). Conclusioni: RLS ed emicrania sono risultate associate nel nostro campione di popolazione adulta; inoltre la RLS ha mostrato una correlazione significativa con i sintomi di sensitivizzazione del SNC legati agli attacchi di cefalea. Questa associazione potrebbe risiedere in una possibile base patogenetica comune.
Resumo:
Solo il 60% dei candidati alla resincronizzazione cardiaca risponde in termini di rimodellamento ventricolare inverso che è il più forte predittore di riduzione della mortalità e delle ospedalizzazioni. Due cause possibili della mancata risposta sono la programmazione del dispositivo e i limiti dell’ approccio transvenoso. Nel corso degli anni di dottorato ho effettuato tre studi per ridurre il numero di non responder. Il primo studio valuta il ritardo interventricolare. Al fine di ottimizzare le risorse e fornire un reale beneficio per il paziente ho ricercato la presenza di predittori di ritardo interventricolare diverso dal simultaneo, impostato nella programmazione di base. L'unico predittore è risultato essere l’ intervallo QRS> 160 ms, quindi ho proposto una flow chart per ottimizzare solo i pazienti che avranno nella programmazione ottimale un intervallo interventricolare non simultaneo. Il secondo lavoro valuta la fissazione attiva del ventricolo sinistro con stent. I dislocamenti, la soglia alta di stimolazione del miocardio e la stimolazione del nervo frenico sono tre problematiche che limitano la stimolazione biventricolare. Abbiamo analizzato più di 200 angiografie per vedere le condizioni anatomiche predisponenti la dislocazione del catetere. Prospetticamente abbiamo deciso di utilizzare uno stent per fissare attivamente il catetere ventricolare sinistro in tutti i pazienti che presentavano le caratteristiche anatomiche favorenti la dislocazione. Non ci sono più state dislocazioni, c’è stata una migliore risposta in termini di rimodellamento ventricolare inverso e non ci sono state modifiche dei parametri elettrici del catetere. Il terzo lavoro ha valutato sicurezza ed efficacia della stimolazione endoventricolare sinistra. Abbiamo impiantato 26 pazienti giudicati non responder alla terapia di resincronizzazione cardiaca. La procedura è risultata sicura, il rischio di complicanze è simile alla stimolazione biventricolare classica, ed efficace nell’arrestare la disfunzione ventricolare sinistra e / o migliorare gli effetti clinici in un follow-up medio.