945 resultados para Hand file


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract Background Hand-carried ultrasound (HCU) devices have been demonstrated to improve the diagnosis of cardiac diseases over physical examination, and have the potential to broaden the versatility in ultrasound application. The role of these devices in the assessment of hospitalized patients is not completely established. In this study we sought to perform a direct comparison between bedside evaluation using HCU and comprehensive echocardiography (CE), in cardiology inpatient setting. Methods We studied 44 consecutive patients (mean age 54 ± 18 years, 25 men) who underwent bedside echocardiography using HCU and CE. HCU was performed by a cardiologist with level-2 training in the performance and interpretation of echocardiography, using two-dimensional imaging, color Doppler, and simple calliper measurements. CE was performed by an experienced echocardiographer (level-3 training) and considered as the gold standard. Results There were no significant differences in cardiac chamber dimensions and left ventricular ejection fraction determined by the two techniques. The agreement between HCU and CE for the detection of segmental wall motion abnormalities was 83% (Kappa = 0.58). There was good agreement for detecting significant mitral valve regurgitation (Kappa = 0.85), aortic regurgitation (kappa = 0.89), and tricuspid regurgitation (Kappa = 0.74). A complete evaluation of patients with stenotic and prosthetic dysfunctional valves, as well as pulmonary hypertension, was not possible using HCU due to its technical limitations in determining hemodynamic parameters. Conclusion Bedside evaluation using HCU is helpful for assessing cardiac chamber dimensions, left ventricular global and segmental function, and significant valvular regurgitation. However, it has limitations regarding hemodynamic assessment, an important issue in the cardiology inpatient setting.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Since instrumentation of the apical foramen has been suggested for cleaning and disinfection of the cemental canal, selection of the file size and position of the apical foramen have challenging steps. This study analyzed the influence of apical foramen lateral opening and file size can exert on cemental canal instrumentation. Thirty-four human maxillary central incisors were divided in two groups: Group 1 (n=17), without flaring, and Group 2 (n=17), with flaring with LA Axxess burs. K-files of increasing diameters were progressively inserted into the canal until binding at the apical foramen was achieved and tips were visible and bonded with ethyl cyanoacrylate adhesive. Roots/files set were cross-sectioned 5 mm from the apex. Apices were examined by scanning electron microscopy at ×140 and digital images were captured. Data were analyzed statistically by Student’s t test and Fisher’s exact test at 5% significance level. SEM micrographs showed that 19 (56%) apical foramina emerged laterally to the root apex, whereas 15 (44%) coincided with it. Significantly more difficulty to reach the apical foramen was noted in Group 2. Results suggest that the larger the foraminal file size, the more difficult the apical foramen instrumentation may be in laterally emerged cemental canals.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

PURPOSE: The aim of this study was to investigate the influence of cervical preflaring in determining the initial apical file (IAF) in the palatal roots of maxillary molars, and to determine the morphologic shape of the canal 1 mm short of the apex. METHODS: After preparing standard access cavities the group 1 received the IAF without cervical preflaring (WCP). In groups 2 to 5, preflaring was performed with Gates-Glidden (GG), Anatomic Endodontics Technology (AET), GT Rotary Files (GT) and LA Axxes (LA), respectively. Each canal was sized using manual K-files, starting with size 08 files, and making passive movements until the WL was reached. File sizes were increased until a binding sensation was felt at the WL. The IAF area and the area of the root canal were measured to verify the percentage occupied by the IAF inside the canal in each sample by SEM. The morphologic shape of the root canal was classified as circular, oval or flattened. Statistical analysis was performed by ANOVA/Tukey test (P < 0.05). RESULTS: The decreasing percentages occupied by the IAF inside the canal were: LA>GT=AET>GG>WCP. The morphologic shape was predominantly oval. CONCLUSION: The type of cervical preflaring used interferes in the determination of IAF.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La necessità di sincronizzare i propri dati si presenta in una moltitudine di situazioni, infatti il numero di dispositivi informatici a nostra disposizione è in continua crescita e, all' aumentare del loro numero, cresce l' esigenza di mantenere aggiornate le multiple copie dei dati in essi memorizzati. Vi sono diversi fattori che complicano tale situazione, tra questi la varietà sempre maggiore dei sistemi operativi utilizzati nei diversi dispositivi, si parla di Microsoft Windows, delle tante distribuzioni Linux, di Mac OS X, di Solaris o di altri sistemi operativi UNIX, senza contare i sistemi operativi più orientati al settore mobile come Android. Ogni sistema operativo ha inoltre un modo particolare di gestire i dati, si pensi alla differente gestione dei permessi dei file o alla sensibilità alle maiuscole. Bisogna anche considerare che se gli aggiornamenti dei dati avvenissero soltanto su di uno di questi dispositivi sarebbe richiesta una semplice copia dei dati aggiornati sugli altri dispositivi, ma che non è sempre possibile utilizzare tale approccio. Infatti i dati vengono spesso aggiornati in maniera indipendente in più di un dispositivo, magari nello stesso momento, è pertanto necessario che le applicazioni che si occupano di sincronizzare tali dati riconoscano le situazioni di conflitto, nelle quali gli stessi dati sono stati aggiornati in più di una copia ed in maniera differente, e permettano di risolverle, uniformando lo stato delle repliche. Considerando l' importanza e il valore che possono avere i dati, sia a livello lavorativo che personale, è necessario che tali applicazioni possano garantirne la sicurezza, evitando in ogni caso un loro danneggiamento, perchè sempre più spesso il valore di un dispositivo dipende più dai dati in esso contenuti che dal costo dello hardware. In questa tesi verranno illustrate alcune idee alternative su come possa aver luogo la condivisione e la sincronizzazione di dati tra sistemi operativi diversi, sia nel caso in cui siano installati nello stesso dispositivo che tra dispositivi differenti. La prima parte della tesi descriverà nel dettaglio l' applicativo Unison. Tale applicazione, consente di mantenere sincronizzate tra di loro repliche dei dati, memorizzate in diversi dispositivi che possono anche eseguire sistemi operativi differenti. Unison funziona a livello utente, analizzando separatamente lo stato delle repliche al momento dell' esecuzione, senza cioè mantenere traccia delle operazioni che sono state effettuate sui dati per modificarli dal loro stato precedente a quello attuale. Unison permette la sincronizzazione anche quando i dati siano stati modificati in maniera indipendente su più di un dispositivo, occupandosi di risolvere gli eventuali conflitti che possono verificarsi rispettando la volontà dell' utente. Verranno messe in evidenza le strategie utilizzate dai suoi ideatori per garantire la sicurezza dei dati ad esso affidati e come queste abbiano effetto nelle più diverse condizioni. Verrà poi fornita un' analisi dettagiata di come possa essere utilizzata l' applicazione, fornendo una descrizione accurata delle funzionalità e vari esempi per renderne più chiaro il funzionamento. Nella seconda parte della tesi si descriverà invece come condividere file system tra sistemi operativi diversi all' interno della stessa macchina, si tratta di un approccio diametralmente opposto al precedente, in cui al posto di avere una singola copia dei dati, si manteneva una replica per ogni dispositivo coinvolto. Concentrando l' attenzione sui sistemi operativi Linux e Microsoft Windows verranno descritti approfonditamente gli strumenti utilizzati e illustrate le caratteristiche tecniche sottostanti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This dissertation presents the synthesis of a hand exoskeleton (HE) for the rehabilitation of post-stroke patients. Through the analysis of state-of-the-art, a topological classification was proposed. Based on the proposed classification principles, the rehabilitation HEs were systematically analyzed and classified. This classification is helpful to both understand the reason of proposing certain solutions for specific applications and provide some useful guidelines for the design of a new HE, that was actually the primary motivation of this study. Further to this classification, a novel rehabilitation HE was designed to support patients in cylindrical shape grasping tasks with the aim of recovering the basic functions of manipulation. The proposed device comprises five planar mechanisms, one per finger, globally actuated by two electric motors. Indeed, the thumb flexion/extension movement is controlled by one actuator whereas a second actuator is devoted to the control of the flexion/extension of the other four fingers. By focusing on the single finger mechanism, intended as the basic model of the targeted HE, the feasibility study of three different 1 DOF mechanisms are analyzed: a 6-link mechanism, that is connected to the human finger only at its tip, an 8-link and a 12-link mechanisms where phalanges and articulations are part of the kinematic chain. The advantages and drawbacks of each mechanism are deeply analyzed with respect to targeted requirements: the 12-link mechanism was selected as the most suitable solution. The dimensional synthesis based on the Burmester theory as well as kinematic and static analyses were separately done for all fingers in order to satisfy the desired specifications. The HE was finally designed and a prototype was built. The experimental results of the first tests are promising and demonstrate the potential for clinical applications of the proposed device in robot-assisted training of the human hand for grasping functions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This PhD thesis discusses the impact of Cloud Computing infrastructures on Digital Forensics in the twofold role of target of investigations and as a helping hand to investigators. The Cloud offers a cheap and almost limitless computing power and storage space for data which can be leveraged to commit either new or old crimes and host related traces. Conversely, the Cloud can help forensic examiners to find clues better and earlier than traditional analysis applications, thanks to its dramatically improved evidence processing capabilities. In both cases, a new arsenal of software tools needs to be made available. The development of this novel weaponry and its technical and legal implications from the point of view of repeatability of technical assessments is discussed throughout the following pages and constitutes the unprecedented contribution of this work

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La prova informatica richiede l’adozione di precauzioni come in un qualsiasi altro accertamento scientifico. Si fornisce una panoramica sugli aspetti metodologici e applicativi dell’informatica forense alla luce del recente standard ISO/IEC 27037:2012 in tema di trattamento del reperto informatico nelle fasi di identificazione, raccolta, acquisizione e conservazione del dato digitale. Tali metodologie si attengono scrupolosamente alle esigenze di integrità e autenticità richieste dalle norme in materia di informatica forense, in particolare della Legge 48/2008 di ratifica della Convenzione di Budapest sul Cybercrime. In merito al reato di pedopornografia si offre una rassegna della normativa comunitaria e nazionale, ponendo l’enfasi sugli aspetti rilevanti ai fini dell’analisi forense. Rilevato che il file sharing su reti peer-to-peer è il canale sul quale maggiormente si concentra lo scambio di materiale illecito, si fornisce una panoramica dei protocolli e dei sistemi maggiormente diffusi, ponendo enfasi sulla rete eDonkey e il software eMule che trovano ampia diffusione tra gli utenti italiani. Si accenna alle problematiche che si incontrano nelle attività di indagine e di repressione del fenomeno, di competenza delle forze di polizia, per poi concentrarsi e fornire il contributo rilevante in tema di analisi forensi di sistemi informatici sequestrati a soggetti indagati (o imputati) di reato di pedopornografia: la progettazione e l’implementazione di eMuleForensic consente di svolgere in maniera estremamente precisa e rapida le operazioni di analisi degli eventi che si verificano utilizzando il software di file sharing eMule; il software è disponibile sia in rete all’url http://www.emuleforensic.com, sia come tool all’interno della distribuzione forense DEFT. Infine si fornisce una proposta di protocollo operativo per l’analisi forense di sistemi informatici coinvolti in indagini forensi di pedopornografia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi indaga il problema di calibrazione Hand Eye, ovvero la trasformazione geometrica fra i diversi sistemi di riferimento della camera e dell'attuatore del robot, presentando il problema ed analizzando le varie soluzioni proposte in letteratura. Viene infine presentata una implementazione realizzata in collaborazione con l'azienda SpecialVideo, implementata utilizzando l'algoritmo proposto da Konstantinos Daniilidis, il quale propone una formulazione del problema sfruttando l'utilizzo di quaternioni duali, risolvendo simultaneamente la parte rotatoria e traslatoria della trasformazione. Si conclude il lavoro con una analisi dell'efficacia del metodo implementato su dati simulati e proponendo eventuali estensioni, allo scopo di poter riutilizzare in futuro il lavoro svolto nel software aziendale, con dati reali e con diversi tipi di telecamere, principalmente camere lineari o laser.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi illustra le funzionalita e l'architettura di Node.js elencando e analizzando le caratteristiche che lo rendono un framework vincente nella sfida che il web attuale pone. La tesi comprende l'analisi e la descrizione del lavoro svolto per creare una libreria HTTP/ File system, integrata nel sistema di sviluppo cloud proprietario: Instant Developer , funzionante sia su Node.JS che sui browser che supportano appieno le nuove API File system di HTML 5. Particolare attenzione viene riservata per la descrizione della struttura della libreria, pensata per permettere all'utente dell'IDE di utilizzarla indifferentemente su server/browser senza preoccuparsi di chiamare metodi diversi. Fs.js permette di operare con file/cartelle, richieste HTTP in modo semplificato rispetto alle API Ufficiali dei rispettivi ambienti.