1000 resultados para Reale Istituto veneto di scienze, lettere ed arti (Venice, Italy)
Resumo:
Se le trasformazioni sociali in atto tendono a esasperare il senso di incertezza, sradicamento ed individualismo, sussistono pratiche che si contrappongono alle tendenze dominanti, finalizzate a ricucire i legami sociali su scala locale. La progettazione urbano-architettonica interiorizza il nuovo bisogno di comunità originando soluzioni abitative tese a favorire gli scambi informali fra vicini, facendo leva sul concetto di capitale sociale, attaccamento al quartiere, identità del luogo e partecipazione. La casa, simbolo di stabilità e sicurezza ma anche di privacy, privatismo familiare, diventa sempre più oggetto di studi, domanda sociale e intervento politico. Soprattutto è sempre più intesa come un nodo di relazioni familiari in una rete di relazioni sociali più ampie. Casa e quartiere incidono nella esperienza di benessere e socialità familiare? In che modo gli spazi urbani e architettonici influenzano la coesione sociale? Quale il ruolo degli abitanti nello sviluppare socialità e integrazione? Sono queste le domande che ci siamo posti per rilevare le dinamiche sociali e culturali dell’abitare attraverso uno studio di caso condotto in due quartieri simili. Dalla ricerca emerge come il significato della casa non sia univoco ma cambi rispetto al ciclo di vita familiare e a quello economico e ciò incide nella partecipazione alle attività di quartiere. Mostriamo inoltre come lo spazio fisico costruito crea importanti opportunità per gli scambi informali e per il benessere familiare e individuale dei bambini ma che, il contesto sociale sia una discriminate fondamentale. Nel quartiere dove è presente una organizzazione di abitanti il numero delle relazioni di vicinato aumenta, cambiano anche la qualità delle relazioni e le distanze fisiche fra i vicini. Emerge inoltre che la reciprocità è il principale strumento di costruzione della coesione comunitaria interna e crea un atteggiamento di apertura e fiducia che va al di là dei confini di quartiere.
Resumo:
La ricerca proposta si pone l’obiettivo di definire e sperimentare un metodo per un’articolata e sistematica lettura del territorio rurale, che, oltre ad ampliare la conoscenza del territorio, sia di supporto ai processi di pianificazione paesaggistici ed urbanistici e all’attuazione delle politiche agricole e di sviluppo rurale. Un’approfondita disamina dello stato dell’arte riguardante l’evoluzione del processo di urbanizzazione e le conseguenze dello stesso in Italia e in Europa, oltre che del quadro delle politiche territoriali locali nell’ambito del tema specifico dello spazio rurale e periurbano, hanno reso possibile, insieme a una dettagliata analisi delle principali metodologie di analisi territoriale presenti in letteratura, la determinazione del concept alla base della ricerca condotta. E’ stata sviluppata e testata una metodologia multicriteriale e multilivello per la lettura del territorio rurale sviluppata in ambiente GIS, che si avvale di algoritmi di clustering (quale l’algoritmo IsoCluster) e classificazione a massima verosimiglianza, focalizzando l’attenzione sugli spazi agricoli periurbani. Tale metodo si incentra sulla descrizione del territorio attraverso la lettura di diverse componenti dello stesso, quali quelle agro-ambientali e socio-economiche, ed opera una sintesi avvalendosi di una chiave interpretativa messa a punto allo scopo, l’Impronta Agroambientale (Agro-environmental Footprint - AEF), che si propone di quantificare il potenziale impatto degli spazi rurali sul sistema urbano. In particolare obiettivo di tale strumento è l’identificazione nel territorio extra-urbano di ambiti omogenei per caratteristiche attraverso una lettura del territorio a differenti scale (da quella territoriale a quella aziendale) al fine di giungere ad una sua classificazione e quindi alla definizione delle aree classificabili come “agricole periurbane”. La tesi propone la presentazione dell’architettura complessiva della metodologia e la descrizione dei livelli di analisi che la compongono oltre che la successiva sperimentazione e validazione della stessa attraverso un caso studio rappresentativo posto nella Pianura Padana (Italia).
Resumo:
“Difetto di Informazione e danno da prodotto” è un tema di grande interesse ed attualità, in un momento storico in cui si è riacceso il dibattito sulla disciplina della responsabilità per danni da prodotto difettoso. Complice è “il difetto di informazione”, da sempre rimasto ai margini della casistica giurisprudenziale, ma che improvvisamente “ruba la scena” imponendosi all'attenzione della Cassazione (nn. 6007/2007 e 20985/2007) e rivelando nodi interpretativi di forte impatto pratico nelle cause di responsabilità del produttore. Di qui l’esigenza di approfondire la complessa tematica degli information defects, sotto il profilo della nozione di “difetto” e della sua prova, nonché dell’incidenza di eventuali carenze informative sulla responsabilità del produttore. Muovendo dall’analisi della Direttiva e della sua attuazione italiana, il lavoro individua i punti nodali di tale disciplina ed i vari limiti posti – sia a livello interpretativo che applicativo - alla tutela del danneggiato, suscettibili di renderla meno “appetibile” di quanto potrebbe sembrare. Affronta, quindi, criticamente le questioni trattate nelle due sentenze di legittimità del 2007 in ordine sia alla distribuzione tra le parti dell'onere probatorio, sia alla rilevanza delle informazioni fornite dal produttore. Peculiare interrogativo cui si cerca di dare risposta è se, ed in che misura, l’“informazione” consenta al produttore di andare esente da responsabilità. Il lavoro passa ad esplorare i nuovi scenari offerti dalla interazione tra la disciplina della responsabilità del produttore e quella sulla sicurezza generale dei prodotti, la cui coesistenza all’interno del medesimo corpo di norme pone nuovi interrogativi, quali la sussistenza della responsabilità del produttore di un bene “conforme” ed il ruolo dell’informazione nell’ipotesi di prodotti non difettosi e/o “conformi”. La ricerca affronta tali interrogativi con sguardo critico e provocatorio sollevando il dubbio se la “conformità alle norme armonizzate” non rischi di diventare una “nuova” clausola di esonero della responsabilità del produttore.
Resumo:
Le profonde trasformazioni che hanno interessato l’industria alimentare, unitamente alle accresciute capacità delle scienze mediche ed epidemiologiche di individuare nessi causali tra il consumo di determinate sostanze e l’insorgere di patologie, hanno imposto al legislatore di intervenire nella materia della c.d. sicurezza alimentare mettendo in atto sistemi articolati e complessi tesi a tutelare la salute dei consociati. Quest’ultimo obiettivo viene perseguito, da un lato, mediante disposizioni di natura pubblicistica e di carattere preventivo e, dall’altro lato, dallo strumento della responsabilità civile. Le due prospettive di tutela della salute delle persone costituiscono parti distinte ma al tempo stesso fortemente integrate in una logica unitaria. Questa prospettiva emerge chiaramente nel sistema statunitense: in quel ordinamento la disciplina pubblicistica della sicurezza degli alimenti – definita dalla Food and Drug Administration – costituisce un punto di riferimento imprescindibile anche quando si tratta di stabilire se un prodotto alimentare è difettoso e se, di conseguenza, il produttore è chiamato a risarcire i danni che scaturiscono dal suo utilizzo. L’efficace sinergia che si instaura tra la dimensione pubblicistica del c.d. Public Enforcement e quella risarcitoria (Private Enforcement) viene ulteriormente valorizzata dalla presenza di efficaci strumenti di tutela collettiva tra i quali la class action assume una importanza fondamentale. Proprio muovendo dall’analisi del sistema statunitense, l’indagine si appunta in un primo momento sull’individuazione delle lacune e delle criticità che caratterizzano il sistema nazionale e, più in generale quello comunitario. In un secondo momento l’attenzione si focalizza sull’individuazione di soluzioni interpretative e de iure condendo che, anche ispirandosi agli strumenti di tutela propri del diritto statunitense, contribuiscano a rendere maggiormente efficace la sinergia tra regole preventive sulla sicurezza alimentare e regole risarcitorie in materia di responsabilità del produttore.
Implementazione di un modulatore sigma-delta digitale per la sintesi di segnali pwm ad alta fedelta.
Resumo:
La modulazione a durata d'impulso (PWM) è utilizzata soprattutto perchè permette di ottenere alta efficenza energetica. In ambito accademico è stato proposto un modulatore PWM che sfrutta la tecnica di noise shaping, Sigma Delta, per avere elevata fedeltà. Il lavoro di questa tesi è stato l'implementazione su FPGA del modulatore Sigma DeltaDigitale utilizzato: quarto ordine, con quantizzatore a 4 bit e SNR in banda di 60 dB. Il dimensionamento è stato fatto determinando l'effetto che la lunghezza delle parole dei segnali ha sul rumore prodotto dal sistema. Questo studio è stato svolto con analisi euristiche ed algoritmi di ricerca implementati in ambiente MATLAB. Lo studio fatto è di carattere generale ed estendibile a generiche architetture Sigma Delta.
Resumo:
Da quando Chuck Hoberman, all'inizio degli anni '90, ideò la prima cosiddetta "Hoberman sphere", le strutture che da lui prendono il nome hanno suscitato grande interesse, a partire dal successo avuto nell'ambito della scultura e architettura, e hanno determinato la nascita di numerose ricerche ed analisi sul loro funzionamento, che potessero portare allo sviluppo di applicazioni ingegneristiche basate su di esse. La particolarità dei meccanismi inventati da Hoberman consiste nella possibilità di variare la configurazione delle strutture a cui essi sono applicati, dando luogo a costruzioni che sono in grado di trasformarsi ed assumere forme e dimensioni diverse a seconda delle necessità. In particolare, è possibile ottenere strutture capaci di espandersi e ripiegarsi su se stesse, riducendosi ad un volume notevolmente inferiore a quello occupato dalla configurazione aperta. Questa peculiarità ne ha suggerito l'utilizzo in tutti quegli ambiti nei quali la possibilità di occupare spazi ridotti si rivela un vantaggio, oppure quando ciò è una necessità, come per esempio quello spaziale, date le limitazioni imposte dalle dimensioni dei lanciatori. L'obiettivo del presente studio è pertanto quello di individuare possibili applicazioni nel campo aeronautico e spaziale delle strutture di Hoberman. Si è dunque svolta una ricerca sul funzionamento dei meccanismi su cui questo genere di strutture si basa, e sulle loro attuali applicazioni, per individuarne le caratteristiche che potrebbero renderle idonee e vantaggiose per l'utilizzo in campo aerospaziale. Successivamente, sono state individuate alcune possibili applicazioni che sono state studiate da un punto di vista concettuale.
Resumo:
L’insufficienza renale acuta(AKI) grave che richiede terapia sostitutiva, è una complicanza frequente nelle unità di terapia intensiva(UTI) e rappresenta un fattore di rischio indipendente di mortalità. Scopo dello studio é stato valutare prospetticamente, in pazienti “critici” sottoposti a terapie sostitutive renali continue(CRRT) per IRA post cardiochirurgia, la prevalenza ed il significato prognostico del recupero della funzione renale(RFR). Pazienti e Metodi:Pazienti(pz) con AKI dopo intervento di cardiochirurgia elettivo o in emergenza con disfunzione di due o più organi trattati con CRRT. Risultati:Dal 1996 al 2011, 266 pz (M 195,F 71, età 65.5±11.3aa) sono stati trattati con CRRT. Tipo di intervento: CABG(27.6%), dissecazione aortica(33%), sostituzione valvolare(21.1%), CABG+sostituzione valvolare(12.6%), altro(5.7%). Parametri all’inizio del trattamento: BUN 86.1±39.4, creatininemia(Cr) 3.96±1.86mg/dL, PAM 72.4±13.6mmHg, APACHE II score 30.7±6.1, SOFAscore 13.7±3. RIFLE: Risk (11%), Injury (31.4%), Failure (57.6%). AKI oligurica (72.2%), ventilazione meccanica (93.2%), inotropi (84.5%). La sopravvivenza a 30 gg ed alla dimissione è stata del 54.2% e del 37.1%. La sopravvivenza per stratificazione APACHE II: <24=85.1 e 66%, 25-29=63.5 e 48.1%, 30-34=51.8 e 31.8%, >34=31.6 e 17.7%. RFR ha consentito l’interruzione della CRRT nel 87.8% (86/98) dei survivors (Cr 1.4±0.6mg/dL) e nel 14.5% (24/166) dei nonsurvivors (Cr 2.2±0.9mg/dL) con un recupero totale del 41.4%. RFR è stato osservato nel 59.5% (44/74) dei pz non oligurici e nel 34.4% dei pz oligurici (66/192). La distribuzione dei pz sulla base dei tempi di RFR è stata:<8=38.2%, 8-14=20.9%, 15-21=11.8%, 22-28=10.9%, >28=18.2%. All’analisi multivariata, l’oliguria, l’età e il CV-SOFA a 7gg dall’inizio della CRRT si sono dimostrati fattori prognostici sfavorevoli su RFR(>21gg). RFR si associa ad una sopravvivenza elevata(78.2%). Conclusioni:RFR significativamente piu frequente nei pz non oligurici si associa ad una sopravvivenza alla dimissione piu elevata. La distribuzione dei pz in rapporto ad APACHE II e SOFAscore dimostra che la sopravvivenza e RFR sono strettamente legati alla gravità della patologia.
Resumo:
Il pomodoro è una delle colture principali del panorama agro-alimentare italiano e rappresenta un ingrediente base della tradizione culinaria nazionale. Il pomodoro lavorato dall’industria conserviera può essere trasformato in diverse tipologie merceologiche, che si differenziano in base alla tecniche di lavorazione impiegate ed alle caratteristiche del prodotto finito. la percentuale di spesa totale destinata all’acquisto di cibo fuori casa è in aumento a livello globale e l’interesse dell’industria alimentare nei confronti di questo canale di vendita è quindi crescente. Mentre sono numerose le indagine in letteratura che studiano i processi di acquisto dei consumatori finali, non ci sono evidenze di studi simili condotti sugli operatori del Food Service. Obiettivo principale della ricerca è quello di valutare le preferenze dei responsabili acquisti del settore Food Service per diverse tipologie di pomodoro trasformato, in relazione ad una gamma di attributi rilevanti del prodotto e di caratteristiche del cliente. La raccolta dei dati è avvenuta attraverso un esperimento di scelta ipotetico realizzato in Italia e alcuni mercati esteri. Dai risultati ottenuti dall’indagine emerge che i Pelati sono la categoria di pomodoro trasformato preferita dai responsabili degli acquisti del settore Food Service intervistati, con il 35% delle preferenze dichiarate nell'insieme dei contesti di scelta proposti, seguita dalla Polpa (25%), dalla Passata (20%) e dal Concentrato (15%). Dai risultati ottenuti dalla stima del modello econometrico Logit a parametri randomizzati è emerso che alcuni attributi qualitativi di fiducia (credence), spesso impiegati nelle strategie di differenziazione e posizionamento da parte dell’industria alimentare nel mercato Retail, possono rivestire un ruolo importante anche nell’influenzare le preferenze degli operatori del Food Service. Questo potrebbe quindi essere un interessante filone di ricerca da sviluppare nel futuro, possibilmente con l'impiego congiunto di metodologie di analisi basate su esperimenti di scelta ipotetici e non ipotetici.
Resumo:
Questo lavoro di tesi ha avuto come obiettivo la preparazione di catalizzatori attivi nella reazione di ossidazione parziale catalitica, CPO, del metano per produrre gas di sintesi. I catalizzatori sono stati preparati tramite sintesi elettrochimica di composti di tipo idrotalcite a base di Rh/Mg/Al utilizzando come supporto schiume metalliche costituite da FeCrAlY. L’impiego di questo tipo di supporto comporta una serie di vantaggi, dallo sviluppo del catalizzatore all’ottimizzazione del processo catalitico in termini di prestazioni catalitiche, diminuzione degli “hot spots” termici, diminuzione delle perdite di carico e costi del catalizzatore. La sintesi del catalizzatore è stata effettuata per mezzo di una cella elettrochimica innovativa, che lavora in flusso, e quindi permette la continua rigenerazione della soluzione di sintesi, a differenza di quanto avviene in una cella elettrochimica standard a singolo comparto. La precipitazione dei composti di tipo idrotalcite si ottiene grazie alla tecnica di elettrogenerazione di basi, ovvero grazie alla generazione di un pH basico all’interno della cella elettrochimica a seguito dell’applicazione di un potenziale catodico. Il pH generato è il parametro più importante e determina la natura e la qualità del materiale depositato. È sorta quindi la necessità di sviluppare un sensore potenziometrico miniaturizzato per la determinazione istantanea del pH durante la sintesi, da installare all’interno della schiuma stessa. È possibile correlare le prestazioni catalitiche dei catalizzatori sintetizzati con la cella elettrochimica in flusso, alle loro caratteristiche di morfologia superficiale ed alla composizione chimica, e confrontare le stesse prestazioni catalitiche con quelle ottenute sintetizzando i catalizzatori con la cella elettrochimica standard a singolo comparto.
Resumo:
La sostituzione di materie prime provenienti da risorse fossili con biomasse rinnovabili, utilizzando un processo a basso impatto ambientale, è una delle più importanti sfide della "Green Chemistry". Allo stesso tempo, la sintesi di resine epossidiche fornisce la chiave per la realizzazione di materiali ad alto valore aggiunto. Tuttavia, ad oggi, il 90% della produzione di resine epossidiche è basato sull'uso di bisfenolo A, che ha effetti di xenoestrogeno, ed epicloridrina, tossica e cancerogena. Su queste basi, è stata individuata una strategia sintetica per la sintesi di prepolimeri innovativi per resine epossidiche, che utilizza come substrato di reazione diidrossibenzeni di origine naturale ed evita l'uso di epicloridrina e altri reagenti tossici o pericolosi. La suddetta strategia sintetica è basata sulla sequenza: allilazione dei diidrossibenzeni - epossidazione dei doppi legami ottenuti. In questa procedura non vengono utilizzati drastiche condizioni di reazione e il solvente è acqua, con una catalisi di trasferimento di fase o, in aggiunte di acetonitrile, in un sistema bifasico. La resa complessiva dei due “step” dipende dalla posizione dei due ossidrili nei diidrossibenzeni. Il reagente che porta la resa massima è l’idrochinone (1,4 diidrossibenzene), che, come riportato in letteratura, permette la formazione di resine epossidiche con proprietà simili alle resine di epicloridrina e bisfenolo A. The substitution of raw materials from fossil fuels with renewable biomass using a low environmental impact process is one of the greatest challenges of the "Green Chemistry". At the same time, the synthesis of epoxy resins provides the key to the realization of high added value materials. However, 90% of the production of epoxy resins is based on the use of bisphenol A, a xenoestrogen, and epichlorohydrin, that is toxic and carcinogenic. On these bases, a synthetic strategy for the synthesis of innovative prepolymers of epoxy resins, that uses dihydroxybenzenes of natural origin as reaction substrates and avoids the use of epichlorohydrin and other toxic or dangerous reagents has been identified. The above synthetic strategy is based on the sequence: allylation of dihydroxybenzenes - epoxidation of the double bonds obtained. In this procedure, drastic reaction conditions are dismissed and the solvent used is water with a phase transfer catalysis or, in addition, acetonitrile in a biphasic system. The overall yield of the two steps depends on the position of the two hydroxyls of the dihydroxybenzenes. The reagent that leads to the highest yield is hydroquinone (1,4 dihydroxybenzene), which, as reported in literature, allows the formation of epoxy resins with similar properties to the resins from bisphenol A and epichlorohydrin.
Resumo:
L'obiettivo della tesi è la valutazione delle prestazioni delle migrazioni di reti di macchine virtuali. Ci si è concentrati sul trasferimento delle memorie di tali macchine virtuali in quanto è l'azione che maggiormente comporta l'impiego di tempo e risorse. Allo scopo, si è scelto l'approccio pre-copy in quanto utilizzato dagli hypervisor più diffusi. Si è costruito un modello in grado di descrivere il sistema in esame, analizzandolo sia dal punto di vista matematico, che simulativo. Proprio grazie ai simulatori proposti si sono confrontati i valori del tempo di migrazione e del downtime, indici fondamentali per la migrazione in tempo reale, nel caso di trasferimento in serie e in parallelo delle macchine di un insieme. Si sono considerate anche reti di macchine virtuali aventi diversa dimensione delle memorie, analizzando e confrontando, anche questa volta, gli indici di prestazione con quelli degli altri processi. Si è prestata particolare attenzione anche alla caratterizzazione della dirtying-rate, parametro importante dell'approccio pre-copy.
Resumo:
Il fenomeno dello scattering diffuso è stato oggetto di numerosi studi nell’arco degli ultimi anni, questo grazie alla sua rilevanza nell’ambito della propagazione elettromagnetica così come in molti altri campi di applicazione (remote sensing, ottica, fisica, etc.), ma la compresione completa di questo effetto è lungi dall’essere raggiunta. Infatti la complessità nello studio e nella caratterizzazione della diffusione deriva dalla miriade di casistiche ed effetti che si possono incontrare in un ambiente di propagazione reale, lasciando intuire la necessità di trattarne probabilisticamente il relativo contributo. Da qui nasce l’esigenza di avere applicazioni efficienti dal punto di vista ingegneristico che coniughino la definizione rigorosa del fenomeno e la conseguente semplificazione per fini pratici. In tale visione possiamo descrivere lo scattering diffuso come la sovrapposizione di tutti quegli effetti che si scostano dalle classiche leggi dell’ottica geometrica (riflessione, rifrazione e diffrazione) che generano contributi del campo anche in punti dello spazio e direzioni in cui teoricamente, per oggetti lisci ed omogenei, non dovrebbe esserci alcun apporto. Dunque l’effetto principale, nel caso di ambiente di propagazione reale, è la diversa distribuzione spaziale del campo rispetto al caso teorico di superficie liscia ed omogenea in congiunzione ad effetti di depolarizzazione e redistribuzione di energia nel bilancio di potenza. Perciò la complessità del fenomeno è evidente e l’obiettivo di tale elaborato è di proporre nuovi risultati che permettano di meglio descrivere lo scattering diffuso ed individuare altresì le tematiche sulle quali concentrare l’attenzione nei lavori futuri. In principio è stato quindi effettuato uno studio bibliografico così da identificare i modelli e le teorie esistenti individuando i punti sui quali riflettere maggiormente; nel contempo si sono analizzate le metodologie di caratterizzazione della permittività elettrica complessa dei materiali, questo per valutare la possibilità di ricavare i parametri da utilizzare nelle simulazioni utilizzando il medesimo setup di misura ideato per lo studio della diffusione. Successivamente si è realizzato un setup di simulazione grazie ad un software di calcolo elettromagnetico (basato sul metodo delle differenze finite nel dominio del tempo) grazie al quale è stato possibile analizzare la dispersione tridimensionale dovuta alle irregolarità del materiale. Infine è stata condotta una campagna di misure in camera anecoica con un banco sperimentale realizzato ad-hoc per effettuare una caratterizzazione del fenomeno di scattering in banda larga.
Resumo:
NGAL (Neutrophil Gelatinase-associated Lipocalin ) is a protein of lipocalin superfamily. Recent literature focused on its biomarkers function in several pathological condition (acute and chronic kidney damage, autoimmune disease, malignancy). NGAL biological role is not well elucidated. Several are the demonstration of its bacteriostatic role. Recent papers have indeed highlight NGAL role in NFkB modulation. The aim of this study is to understand whether NGAL may exert a role in the activation (modulation) of T cell response through the regulation of HLA-G complex, a mediator of tolerance. From 8 healthy donors we obtained peripheral blood mononuclear cells (PBMCs) and we isolated by centrifugation on a Ficoll gradient. Cells were then treated with four concentrations of NGAL (40-320 ng/ml) with or without iron. We performed flow cytometry analysis and ELISA test. NGAL increased the HLA-G expression on CD4+ T cells, with an increasing corresponding to the dose. Iron effect is not of unique interpretation. NGAL adiction affects regulatory T cells increasing in vitro expansion of CD4+ CD25+ FoxP3+ cells. Neutralizing antibody against NGAL decreased HLA-G expression and reduced significantly CD4+ CD25+ FoxP3+ cells percentage. In conclusion, we provided in vitro evidence of NGAL involvement in cellular immunity. The potential role of NGAL as an immunomodulatory molecule has been evaluated: it has been shown that NGAL plays a pivotal role in the induction of immune tolerance up regulating HLA-G and T regulatory cells expression in healthy donors. As potential future scenario we highlight the in vivo role of NGAL in immunology and immunomodulation, and its possible relationship with immunosuppressive therapy efficacy, tolerance induction in transplant patients, and/or in other immunological disorders.
Resumo:
in the everyday clinical practice. Having this in mind, the choice of a simple setup would not be enough because, even if the setup is quick and simple, the instrumental assessment would still be in addition to the daily routine. The will to overcome this limit has led to the idea of instrumenting already existing and widely used functional tests. In this way the sensor based assessment becomes an integral part of the clinical assessment. Reliable and validated signal processing methods have been successfully implemented in Personal Health Systems based on smartphone technology. At the end of this research project there is evidence that such solution can really and easily used in clinical practice in both supervised and unsupervised settings. Smartphone based solution, together or in place of dedicated wearable sensing units, can truly become a pervasive and low-cost means for providing suitable testing solutions for quantitative movement analysis with a clear clinical value, ultimately providing enhanced balance and mobility support to an aging population.
Resumo:
Background: Chronic kidney disease (CKD) is one of the strongest risk factor for myocardial infarction (MI) and mortality. The aim of this study was to assess the association between renal dysfunction severity, short-term outcomes and the use of in-hospital evidence-based therapies among patients with non–ST-segment elevation myocardial infarction (NSTEMI). Methods: We examined data on 320 patients presenting with NSTEMI to Maggiore’s Emergency Department from 1st Jan 2010 to 31st December 2011. The study patients were classified into two groups according to their baseline glomerular filtration rate (GFR): renal dysfunction (RD) (GFR<60) and non-RD (GFR≥60 ml/min). Patients were then classified into four groups according to their CKD stage (GFR≥60, GFR 59-30, GFR 29-15, GFR <15). Results: Of the 320 patients, 155 (48,4%) had a GFR<60 ml/min at baseline. Compared with patients with a GFR≥60 ml/min, this group was, more likely to be female, to have hypertension, a previous myocardial infarction, stroke or TIA, had higher levels of uric acid and C-reactive protein. They were less likely to receive immediate (first 24 hours) evidence-based therapies. The GFR of RD patients treated appropriately increases on average by 5.5 ml/min/1.73 m2. The length of stay (mean, SD) increased with increasing CKD stage, respectively 5,3 (4,1), 7.0 (6.1), 7.8 (7.0), 9.2 (5.8) (global p <.0001). Females had on average a longer hospitalization than males, regardless of RD. In hospital mortality was higher in RD group (3,25%). Conclusions: The in-hospital mortality not was statically difference among the patients with a GFR value ≥60 ml/min, and patients with a GFR value <60 ml/min. The length of stay increased with increasing CKD stages. Despite patients with RD have more comorbidities then without RD less frequently receive guideline –recommended therapy. The GFR of RD patients treated appropriately improves during hospitalization, but not a level as we expected.