854 resultados para DG unit
Resumo:
This study aimed to evaluate the parameters established in COFEN Resolution 293/04 concerning nursing staff dimensioning in adult intensive care units (AICU). The research was conducted in six hospitals in São Paulo City. The daily quantitative average of professionals needed for patient care was calculated according to the parameters established by COFEN. The obtained results were compared with the existing number of daily staff members in these units. It was observed that the proportions recommended by COFEN for the nurse category are superior to those used in the hospitals studied, which represents a challenge for Brazilian nursing. Mean care time values were found appropriate and represent important standards for dimensioning the minimum number of professionals in AICU. This study contributed to the validation of the parameters indicated in Resolution 293/04 for nursing staff dimensioning in the AICU.
Resumo:
OBJECTIVE: To assess the cardiovascular risk, using the Framingham risk score, in a sample of hypertensive individuals coming from a public primary care unit. METHODS: The caseload comprised hypertensive individuals according to criteria established by the JNC VII, 2003, of 2003, among 1601 patients followed up in 1999, at the Cardiology and Arterial Hypertension Outpatients Clinic of the Teaching Primary Care Unit, at the Faculdade de Medicina de Ribeirão Preto, Universidade de São Paulo. The patients were selected by draw, aged over 20 years, both genders, excluding pregnant women. It was a descriptive, cross-sectional, observational study. The Framingham risk score was used to stratify cardiovascular risk of developing coronary artery disease (death or non-fatal acute myocardial infarction). RESULTS: Age range of 27-79 years ( = 63.2 ± 9.58). Out of 382 individuals studied, 270 (70.7%) were female and 139 (36.4%) were characterized as high cardiovascular risk for presenting diabetes mellitus, atherosclerosis documented by event or procedure. Out of 243 stratified patients, 127 (52.3%) had HDL-C < 50 mg/dL; 210 (86.4%) had systolic blood pressure > 120 mmHg; 46 (18.9%) were smokers; 33 (13.6%) had a high cardiovascular risk. Those added to 139 enrolled directly as high cardiovascular risk, totaled up 172 (45%); 77 (20.2%) of medium cardiovascular risk and 133 (34.8%) of low risk. The highest percentage of high cardiovascular risk individuals was aged over 70 years; those of medium risk were aged over 60 years; and the low risk patients were aged 50 to 69 years. CONCLUSION: The significant number of high and medium cardiovascular risk individuals indicates the need to closely follow them up.
Resumo:
In dieser Studie werden strukturgeologische, metamorphe und geochronologische Daten benutzt, um eine Quantifizierung tektonischer Prozesse vorzunehmen, die für die Exhumierung der Kykladischen Blauschiefereinheit in der Ägäis und der Westtürkei verantwortlich waren. Bei den beiden tektonischen Prozessen handelt es sich um: (1) Abschiebungstektonik und (2) vertikale duktile Ausdünnung. Eine finite Verformungsanalyse an Proben der Kykladischen Blauschiefereinheit ermöglicht eine Abschätzung des Beitrags von vertikaler duktiler Ausdünnung an der gesamten Exhumierung. Kalkulationen mit einem eindimensionalen, numerischen Model zeigt, daß vertikale duktile Ausdünnung nur ca. 10% an der gesamten Exhumierung ausmacht. Kinematische, metamorphe und geochronologische Daten erklären die tektonische Natur und die Evolution eines extensionalen Störungssystems auf der Insel Ikaria in der östlichen Ägäis. Thermobarometrische Daten lassen erkennen, daß das Liegende des Störungssystems aus ca. 15 km Tiefe exhumiert wurde. Sowohl Apatit- und Zirkonspaltspurenalter als auch Apatit (U-Th)/He-Alter zeigen, daß sich das extensionale Störungssystem zwischen 11-3 Ma mit einer Geschwindigkeit von ca. 7-8 km/Ma bewegte. Spät-Miozäne Abschiebungen trugen zur Exhumierung der letzten ~5-15 km der Hochdruckgesteine bei. Ein Großteil der Exhumierung der Kykladischen Blauschiefereinheit muß vor dem Miozän stattgefunden haben. Dies wird durch einen Extrusionskeil erklärt, der ca. 30-35 km der Kykladischen Blauschiefereinheit in der Westtürkei exhumierte. 40Ar/39Ar und 87Rb/86Sr Datierungen an Myloniten des oberen Abschiebungskontakts zwischen der Selçuk Decke und der darunterliegenden Ampelos/Dilek Decke der Kykladischen Blauschiefereinheit als auch des unteren Überschiebungskontakts zwischen der Ampelos/Dilek Decke und den darunterliegenden Menderes Decken zeigt, daß sich beide mylonitische Zonen um ca. ~35 Ma formten, was die Existenz eines Spät-Eozänen/Früh-Oligozänen Extrusionskeils beweist.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
“ Per anni ho creduto essere cresciuto in una periferia di Buenos Aires, periferia di strade avventurose e di tramonti visibili. In realtà sono cresciuto in un giardino, dietro le lance di un cancellata, e in una biblioteca di infiniti volumi inglesi. Quel Palermo del coltello e la chitarra (mi assicurano) era agli angoli delle strade, ma chi popolava le mie mattine e procurava un gradevole orrore alle mie notti erano il bucaniere cieco di Stevenson, agonizzante sotto gli zoccoli dei cavalli, e il traditore che abbandonò l’amico sulla luna, e il viaggiatore del tempo che riportò dal futuro un fiore appassito, e il genio prigioniero per secoli nell’anfora salomonica, e il profeta velato del Khorasan, che dietro le gemme e la seta nascondeva la lebbra. Cosa succedeva, nel frattempo, oltre le lance della cancellata? Quali destini vernacoli e violenti andavano compiendosi a pochi passi da me, nella sordida bettola o nello spazio turbolento? Com’era quel Palermo o come sarebbe stato bello che fosse? A tali domande vuole rispondere questo libro, più d’immaginazione che documentato.” E’ così che Jorge Luis Borges apre il libro Evaristo Carriego, saggio biografico che passò quasi inosservato all’interno degli ambienti intellettuali della capitale dei quali faceva parte lo scrittore stesso. Il libro era dedicato alla figura, estranea a quegli ambienti, del poeta “bohemien, tisico ed anarchico” Evaristo Carriego, vissuto tra otto e novecento nel quartiere Palermo, in quei tempi periferia malfamata di Buenos Aires. Buenos Aires è la città borgesiana per eccellenza: priva di caratteristiche tipologiche precise, volubile allo sguardo, specchio e metafora di tutte le grandi città del mondo. Ma soprattutto Buenos Aires è una città “inventata” da Borges, che le ha dato un’immagine letteraria che si relaziona in maniera complessa con quella reale. Segnerà nell’immaginario di Borges l’inizio e la fine della sua vita, una sorta di centralità, unico stralcio di stabilità, al quale l’inquieta mente dell’argentino possa far ritorno.
Resumo:
Procedures for quantitative walking analysis include the assessment of body segment movements within defined gait cycles. Recently, methods to track human body motion using inertial measurement units have been suggested. It is not known if these techniques can be readily transferred to clinical measurement situations. This work investigates the aspects necessary for one inertial measurement unit mounted on the lower back to track orientation, and determine spatio-temporal features of gait outside the confines of a conventional gait laboratory. Apparent limitations of different inertial sensors can be overcome by fusing data using methods such as a Kalman filter. The benefits of optimizing such a filter for the type of motion are unknown. 3D accelerations and 3D angular velocities were collected for 18 healthy subjects while treadmill walking. Optimization of Kalman filter parameters improved pitch and roll angle estimates when compared to angles derived using stereophotogrammetry. A Weighted Fourier Linear Combiner method for estimating 3D orientation angles by constructing an analytical representation of angular velocities and allowing drift free integration is also presented. When tested this method provided accurate estimates of 3D orientation when compared to stereophotogrammetry. Methods to determine spatio-temporal features from lower trunk accelerations generally require knowledge of sensor alignment. A method was developed to estimate the instants of initial and final ground contact from accelerations measured by a waist mounted inertial device without rigorous alignment. A continuous wavelet transform method was used to filter and differentiate the signal and derive estimates of initial and final contact times. The technique was tested with data recorded for both healthy and pathologic (hemiplegia and Parkinson’s disease) subjects and validated using an instrumented mat. The results show that a single inertial measurement unit can assist whole body gait assessment however further investigation is required to understand altered gait timing in some pathological subjects.
Resumo:
L’elaborato finale presentato per la tesi di Dottorato analizza e riconduce a unitarietà, per quanto possibile, alcune delle attività di ricerca da me svolte durante questi tre anni, il cui filo conduttore è l'impatto ambientale delle attività umane e la promozione dello sviluppo sostenibile. Il mio filone di ricerca è stato improntato, dal punto di vista di politica economica, sull'analisi storica dello sviluppo del settore agricolo dall'Unità d'Italia ai giorni nostri e dei cambiamenti avvenuti in contemporanea nel contesto socio-economico e territoriale nazionale, facendo particolare riferimento alle tematiche legate ai consumi e alla dipendenza energetica ed all'impatto ambientale. Parte della mia ricerca è stata, infatti, incentrata sull'analisi dello sviluppo della Green Economy, in particolare per quanto riguarda il settore agroalimentare e la produzione di fonti di energia rinnovabile. Enfasi viene posta sia sulle politiche implementate a livello comunitario e nazionale, sia sul cambiamento dei consumi, in particolare per quanto riguarda gli acquisti di prodotti biologici. La Green Economy è vista come fattore di sviluppo e opportunità per uscire dall'attuale contesto di crisi economico-finanziaria. Crisi, che è strutturale e di carattere duraturo, affiancata da una crescente problematica ambientale dovuta all'attuale modello produttivo, fortemente dipendente dai combustibili fossili. Difatti la necessità di cambiare paradigma produttivo promuovendo la sostenibilità è visto anche in ottica di mitigazione del cambiamento climatico e dei suoi impatti socio-economici particolare dal punto di vista dei disastri ambientali. Questo punto è analizzato anche in termini di sicurezza internazionale e di emergenza umanitaria, con riferimento al possibile utilizzo da parte delle organizzazioni di intervento nei contesti di emergenza di tecnologie alimentate da energia rinnovabile. Dando così una risposta Green ad una problematica esacerbata dall'impatto dello sviluppo delle attività umane.
Resumo:
Le microreti caratterizzate da unità di generazione con Fonti Energetiche Rinnovabili (FER), sono oggetto di crescente interesse in due contesti molto diversi tra loro: l’integrazione della Generazione Diffusa (GD) in reti di distribuzione pubbliche nei paesi sviluppati e l’elettrificazione di zone rurali attualmente non servite dalla rete elettrica. L’introduzione dei sistemi di accumulo nelle microreti rende possibile la compensazione della variabilità delle FER trasformando le microreti in sistemi di produzione che nel complesso risultano completamente regolabili. L’obiettivo del presente lavoro di tesi è dimostrare come le microreti possono svolgere un ruolo fondamentale per lo sviluppo delle infrastrutture elettriche nei paesi in via di sviluppo e nelle economie emergenti ponendo le basi per l’elettrificazione di aree remote e scarsamente popolate ad oggi non connesse alla rete di distribuzione dell’energia.
Resumo:
Il progetto di dottorato IMITES (Interpretación de la Metáfora entre ITaliano y ESpañol) si pone come obiettivo quello di analizzare l’interpretazione simultanea del linguaggio figurato nelle combinazioni italiano-spagnolo e spagnolo-italiano. Prevede l’analisi di una serie di dati estratti da discorsi pronunciati in italiano e spagnolo in occasione di conferenze tenutesi presso la Commissione europea, e le loro versioni interpretate in spagnolo e italiano rispettivamente. Le espressioni figurate contenute nei discorsi originali sono state allineate e messe a confronto con le versioni fornite dagli interpreti, con il duplice obiettivo di a) capire quali causano maggiori problemi agli interpreti e b) analizzare le strategie di interpretazione applicate da professionisti quali quelli della Direzione Generale Interpretazione (DG SCIC) della Commissione europea nell’interpretare metafore. Il progetto prevede anche la somministrazione di un questionario agli interpreti delle cabine spagnola e italiana del DG SCIC, con l’obiettivo di sondare la loro percezione delle difficoltà che sottendono all’interpretazione del linguaggio figurato, le indicazioni metodologiche ricevute (se del caso) dai loro docenti a tale riguardo e le strategie applicate nella pratica professionale. Infine, l’ultima fase del progetto di ricerca prevede la sperimentazione di una proposta didattica attraverso uno studio caso-controllo svolto su studenti del secondo anno della Laurea Magistrale in Interpretazione delle Scuole Interpreti di Forlì e Trieste. Il gruppo-caso ha ricevuto una formazione specifica sull'interpretazione delle metafore, mentre gruppo-controllo è stato monitorato nella sua evoluzione. L’obiettivo di questa ultima fase di ricerca è quello di valutare, da una parte, l’ “insegnabilità” di strategia per affrontare il linguaggio figurato in interpretazione simultanea, e, dall’altra, l’efficacia dell’unità didattica proposta, sviluppata in base all’analisi svolta su IMITES.
Resumo:
La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.
Resumo:
Questa tesi ripercorre le tappe principali della storia della scuola secondaria italiana, soffermandosi su quelle che hanno caratterizzato l'insegnamento della matematica. Inoltre analizza le caratteristiche delle prove di matematica assegnate alla maturità scientifica fin dalla nascita dell'esame di Stato.