842 resultados para IL Task Force


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Background: Percutaneous coronary intervention (PCI) has increased as the initial revascularization strategy in chronic coronary artery disease. Consequently, more patients undergoing coronary artery bypass grafting (CABG) have history of coronary stent. Objective: Evaluate the impact of previous PCI on in-hospital mortality after CABG in patients with multivessel coronary artery disease. Methods: Between May/2007 and June/2009, 1099 consecutive patients underwent CABG on cardiopulmonary bypass. Patients with no PCI (n=938, 85.3%) were compared with patients with previous PCI (n=161, 14.6%). Logistic regression models and propensity score matching analysis were used to assess the risk-adjusted impact of previous PCI on in-hospital mortality. Results: Both groups were similar, except for the fact that patients with previous PCI were more likely to have unstable angina (16.1% x 9.9%, p=0.019). In-hospital mortality after CABG was higher in patients with previous PCI (9.3% x 5.1%, p=0.034) and it was comparable with EuroSCORE and 2000 Bernstein-Parsonnet risk score. Using multivariate logistic regression analysis, previous PCI emerged as an independent predictor of postoperative in-hospital mortality (odds ratio 1.94, 95% CI 1.02-3.68, p=0.044) as strong as diabetes (odds ratio 1.86, 95% CI 1.07-3.24, p=0.028). After computed propensity score matching based on preoperative risk factors, in-hospital mortality remained higher among patients with previous PCI (odds ratio 3.46, 95% CI 1.10-10.93, p=0.034). Conclusions: Previous PCI in patients with multivessel coronary artery disease is an independent risk factor for in-hospital mortality after CABG. This fact must be considered when PCI is indicated as initial alternative in patients with more severe coronary artery disease. (Arq Bras Cardiol 2012;99(1):586-595)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Background: Little is known in our country about regional differences in the treatment of acute coronary disease. Objective: To analyze the behavior regarding the use of demonstrably effective regional therapies in acute coronary disease. Methods: A total of 71 hospitals were randomly selected, respecting the proportionality of the country in relation to geographic location, among other criteria. In the overall population was regionally analyzed the use of aspirin, clopidogrel, ACE inhibitors / AT1 blocker, beta-blockers and statins, separately and grouped by individual score ranging from 0 (no drug used) to 100 (all drugs used). In myocardial infarction with ST elevation (STEMI) regional differences were analyzed regarding the use of therapeutic recanalization (fibrinolytics and primary angioplasty). Results: In the overall population, within the first 24 hours of hospitalization, the mean score in the North-Northeast (70.5 +/- 22.1) was lower (p < 0.05) than in the Southeast (77.7 +/- 29.5), Midwest (82 +/- 22.1) and South (82.4 +/- 21) regions. At hospital discharge, the score of the North-Northeast region (61.4 +/- 32.9) was lower (p < 0.05) than in the Southeast (69.2 +/- 31.6), Midwest (65.3 +/- 33.6) and South (73.7 +/- 28.1) regions; additionally, the score of the Midwest was lower (p < 0.05) than the South region. In STEMI, the use of recanalization therapies was highest in the Southeast (75.4%, p = 0.001 compared to the rest of the country), and lowest in the North-Northeast (52.5%, p < 0.001 compared to the rest of the country). Conclusion: The use of demonstrably effective therapies in the treatment of acute coronary disease is much to be desired in the country, with important regional differences.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neurosonological studies, specifically transcranial Doppler (TCD) and transcranial color-coded duplex (TCCD), have high level of specificity and sensitivity and they are used as complementary tests for the diagnosis of brain death (BD). A group of experts, from the Neurosonology Department of the Brazilian Academy of Neurology, created a task force to determine the criteria for the following aspects of diagnosing BD in Brazil: the reliability of TCD methodology; the reliability of TCCD methodology; neurosonology training and skills; the diagnosis of encephalic circulatory arrest; and exam documentation for BD. The results of this meeting are presented in the current paper.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objective: This study evaluated the success in attaining non-HDL-cholesterol (non-HDL-C) goals in the multinational L-TAP 2 study. Methods: 9955 patients >= 20 years of age with dyslipidemia on stable lipid-lowering therapy were enrolled from nine countries. Results: Success rates for non-HDL-C goals were 86% in low, 70% in moderate, and 52% in high-risk patients (63% overall). In patients with triglycerides of >200 mg/dL success rates for non-HDL-C goals were 35% vs. 69% in those with <= 200 mg/dL (p < 0.0001). Among patients attaining their LDL-C goal, 18% did not attain their non-HDL-C goal. In those with coronary disease and at least two risk factors, only 34% and 30% attained respectively their non-HDL-C and LDL-C goals. Rates of failure in attaining both LDL-C and non-HDL-C goals were highest in Latin America. Conclusions: Non-HDL-C goal attainment lagged behind LDL-C goal attainment; this gap was greatest in higher-risk patients. (c) 2012 Elsevier Ireland Ltd. All rights reserved.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introduction Vaccination is an effective tool against several infectious agents including influenza. In 2010, the Advisory Committee on Immunization Practices (ACIP) recommended influenza A H1N1/2009 immunization for high risk groups, including juvenile idiopathic arthritis (JIA) patients and more recently the EULAR task force reinforced the importance of vaccination in immunosuppressed pediatric rheumatologic patients. We have recently shown that Influenza A H1N1/2009 vaccination generated protective antibody production with short-term safety profile among 93 JIA patients, but the possible impact of the vaccine in autoimmune response in JIA have not been studied. Therefore, we aimed to assess the production of some autoantibodies generated following influenza H1N1 vaccination in JIA patients. Objectives To assess the autoimmune response and H1N1 serology following influenza H1N1 vaccination in patients with JIA. Methods Cepa A/California/7/2009 (NYMC X-179A) anti-H1N1 was used to vaccinate JIA patients: 1 dose of immunization was given to all participants and those <9yrs of age received a second booster 3 weeks apart. Sera were analyzed before and 3 weeks following complete vaccination. Serology against H1N1 virus was performed by hemagglutination inhibition antibody assay, rheumatoid factor (RF) by latex fixation test, antinuclear antibodies (ANA) by IIF, IgM and IgG anticardiolipin (aCL) by ELISA.Results Among 98 JIA patients that were vaccinated, 58 sera were available for this study. Mean age of 58 JIA patients was 23.9 ± 9.5 yrs, 38 were females and 20 males with mean disease duration of 14.7 ± 10.1 yrs. JIA subtypes were: 33 (57%) poliarticular, 10 (17%) oligoarticular, 6 (10%) systemic and 9 (16%) other. Sixteen patients were off drugs while 42 (72%) were under different pharmacotherapy: 32 (55%) were on 1 DMARD/IS, 10 (17%) on 2 DMARDs/IS, 19 (33%) antimalarials, 29 (50%) MTX, 8(14%) sulfasalazine, 6 (10%) anti-TNFs, 4 (7%) abatacept; no patient was using prednisone >0.5 mg/kg/d. Seroprotection rates against H1N1 influenza increased from 23 to 83% and seroconversion rates were achieved in 78% JIA. Prior to vaccination, 31(53.4%) JIA patients were ANA+, 6(10.3%) RF+, and 4 (7%) IgM + IgG aCL+. After complete H1N1 vaccination, positivity for ANA remained the same whereas 1 patient became negative for IgG aCL, and another for RF, IgM and IgG aCL. One (1.7%) patient turned low titer IgG aCL+. Conclusion Vaccination of JIA patients against pandemic influenza A (H1N1) generated successful protective antibody production without the induction of autoantibody production, except for 1 patient that became positive for low titer IgG aCL, supporting its safety.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Es werden Krankheitserleben und Behandlungsvoraussetzungen als Prädiktoren für den Erfolg stationärer Psychosomatischer Therapie anhand der vorliegenden Studie, die 125 Patienten einschliesst, überprüft. Dies geschieht mit Hilfe der Achse I der Operationalisierten Psychodynamischen Diagnostik (OPD).Die OPD wurde von der Arbeitsgruppe-OPD 1996 in Ergänzung zu der ICD-10 (International Classification of Diseases) herausgegeben und bietet für die Psyche betreffende Erkrankungen zusätzlich zu den rein deskriptiven Klassifikationen der ICD eine Klassifikationsmöglichkeit auf der Basis der Psychoanalyse und Psychodynamik an. Die erste der insgesamt fünf Achsen der OPD bezieht sich dabei auf das Krankheitserleben und die Behandlungsvoraussetzungen des Patienten.Der Erfolg der Therapie wird bis 1 Jahr nach dem Ende der Therapie zu drei verschiedenen Zeitpunkten durch Befragungen der Patienten erfasst. Die Ergebnisse zeigen für einzelne der Items der Achse I der OPD deutliche Zusammenhänge mit dem später eingetretenen Erfolg der Therapie. Dies gilt insbesondere für den Schweregrad des psychischen Befundes, den Leidensdruck, die Beeinträchtigung des Selbsterlebens, die Motivation zur Psychotherapie und die psychische Symptomdarbietung (Items 2, 3, 4, 11 und 15).Des weiteren werden zwei Faktorenlösungen erstellt, welche die 19 einzelnen Items der Achse I der OPD zu Faktoren zusammenfassen. Im Vergleich mit den bereits vorhandenen Faktorenlösungen zeigen sich aufgrund der Uneinheitlichkeit Probleme für eine mögliche Verwendung in der Praxis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il task del data mining si pone come obiettivo l'estrazione automatica di schemi significativi da grandi quantità di dati. Un esempio di schemi che possono essere cercati sono raggruppamenti significativi dei dati, si parla in questo caso di clustering. Gli algoritmi di clustering tradizionali mostrano grossi limiti in caso di dataset ad alta dimensionalità, composti cioè da oggetti descritti da un numero consistente di attributi. Di fronte a queste tipologie di dataset è necessario quindi adottare una diversa metodologia di analisi: il subspace clustering. Il subspace clustering consiste nella visita del reticolo di tutti i possibili sottospazi alla ricerca di gruppi signicativi (cluster). Una ricerca di questo tipo è un'operazione particolarmente costosa dal punto di vista computazionale. Diverse ottimizzazioni sono state proposte al fine di rendere gli algoritmi di subspace clustering più efficienti. In questo lavoro di tesi si è affrontato il problema da un punto di vista diverso: l'utilizzo della parallelizzazione al fine di ridurre il costo computazionale di un algoritmo di subspace clustering.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The diagnosis of atopic dermatitis (AD) is made using evaluated clinical criteria. Management of AD must consider the symptomatic variability of the disease.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Patients with an implantable cardioverter defibrillator (ICD) have an ongoing risk of sudden incapacitation that might cause harm to others while driving a car. Driving restrictions vary across different countries in Europe. The most recent recommendations for driving of ICD patients in Europe were published in 1997 and focused mainly on patients implanted for secondary prevention. In recent years there has been a vast increase in the number of patients with an ICD and in the percentage of patients implanted for primary prevention. The EHRA task force on ICD and driving was formed to reassess the risk of driving for ICD patients based on the literature available. The recommendations are summarized in the following table and are further explained in the document, (Table see text). Driving restrictions are perceived as difficult for patients and their families, and have an immediate consequence for their lifestyle. To increase the adherence to the driving restrictions, adequate discharge of education and follow-up of patients and family are pivotal. The task force members hope this document may serve as an instrument for European and national regulatory authorities to formulate uniform driving regulations.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The European Respiratory Society Task Force on primary ciliary dyskinesia (PCD) in children recently published recommendations for diagnosis and management. This paper compares these recommendations with current clinical practice in Europe. Questionnaires were returned by 194 paediatric respiratory centres caring for PCD patients in 26 countries. In most countries, PCD care was not centralised, with a median (interquartile range) of 4 (2-9) patients treated per centre. Overall, 90% of centres had access to nasal or bronchial mucosal biopsy. Samples were analysed by electron microscopy (77%) and ciliary function tests (57%). Nasal nitric oxide was used for screening in 46% of centres and saccharine tests in 36%. Treatment approaches varied widely, both within and between countries. European region, size of centre and the country's general government expenditure on health partly defined availability of advanced diagnostic tests and choice of treatments. In conclusion, we found substantial heterogeneity in management of PCD within and between countries, and poor concordance with current recommendations. This demonstrates how essential it is to standardise management and decrease inequality between countries. Our results also demonstrate the urgent need for research: to simplify PCD diagnosis, to understand the natural history and to test the effectiveness of interventions.