977 resultados para Test Template Framework
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
The paper addresses the issue of apportioning of the cost of transmission losses to generators and demands in a multimarket framework. Line flows are unbundled using equivalent bilateral exchanges on a DC-network model and allocated to generators and demands. Losses are then calculated based on unbundled flows and straightforwardly apportioned to generators and demands. The proposed technique is particularly useful in a multimarket framework, where all markets have a common grid operator with complete knowledge of all network data, as is the case of the Brazilian electric-energy system. The methodology proposed is illustrated using the IEEE Reliability Test System and compared numerically with an alternative technique. Appropriate conclusions are drawn. © The Institution of Engineering and Technology 2006.
Resumo:
Aim: There is little information considering the framework association between cast clasps and attachments. The aim of this study was to evaluate the retention strength of frameworks match circumferential clasps and extra resilient attachment cast in three different alloys (cobalt-chromium, nickel-chromium titanium and commercially pure titanium), using two undercut (0.25 and 0.75 mm) and considering different period of time (0, 1/2, 1, 2, 3, 4 and 5 years). Methods: Using two metallic matrices, representing a partially edentulous mandibular right hemiarch with the first molar crown, canine root and without premolars, 60 frameworks were fabricated. Three groups (n = 20) of each metal were cast and each group was divided into two subgroups (n = 10), corresponding the molar undercut of 0.25 mm and 0.75 mm. The nylon male was positioned at the matrix and attached to the acrylic resin of the prosthetic base. The samples were subjected to an insertion and removal test under artificial saliva environment. Results: The data were analyzed and compared with ANOVAs and Tukey's test at 95% of probability. The groups cast in cobaltchromium and nickel-chromium-titanium had the highest mean retention strength (5.58 N and 6.36 N respectively) without significant difference between them, but statistically different from the group cast in commercially pure titanium, which had the lowest mean retention strength in all the periods (3.46 N). The association frameworks using nickel-chromium-titanium and cobalt-chromium could be used with 0.25 mm and 0.75 mm of undercut, but the titanium samples seems to decrease the retention strength, mainly in the 0.75 mm undercut. The circumferential clasps cast in commercially pure titanium used in 0.75 mm undercuts have a potential risk of fractures, especially after the 2nd year of use. Conclusion: This in vitro study showed that the framework association between cast clasp and an extra resilient attachment are suitable to the three metals evaluated, but strongly suggest extra care with commercially pure titanium in undercut of 0.75 mm. Clinical significance: Frameworks fabricated in Cp Ti tend to decrease in retentive strength over time and have a potential risk of fracture in less than 0.75 mm of undercut.
Resumo:
This paper proposes a rank aggregation framework for video multimodal geocoding. Textual and visual descriptions associated with videos are used to define ranked lists. These ranked lists are later combined, and the resulting ranked list is used to define appropriate locations for videos. An architecture that implements the proposed framework is designed. In this architecture, there are specific modules for each modality (e.g, textual and visual) that can be developed and evolved independently. Another component is a data fusion module responsible for combining seamlessly the ranked lists defined for each modality. We have validated the proposed framework in the context of the MediaEval 2012 Placing Task, whose objective is to automatically assign geographical coordinates to videos. Obtained results show how our multimodal approach improves the geocoding results when compared to methods that rely on a single modality (either textual or visual descriptors). We also show that the proposed multimodal approach yields comparable results to the best submissions to the Placing Task in 2012 using no extra information besides the available development/training data. Another contribution of this work is related to the proposal of a new effectiveness evaluation measure. The proposed measure is based on distance scores that summarize how effective a designed/tested approach is, considering its overall result for a test dataset. © 2013 Springer Science+Business Media New York.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
The aim of this study was to evaluate the deformation suffered by cantilevered implant-supported fixed prostheses frameworks cast in silver-palladium alloy and coated with two occlusal veneering materials: acrylic resin or porcelain. Material and Methods: Two strain gauges were bonded to the inferior surface of the silver-palladium framework and two other were bonded to the occlusal surface of the prosthesis framework covered with ceramic and acrylic resin on each of its two halves. The framework was fixed to a metallic master model and a 35.2 N compression force was applied to the cantilever at 10, 15 and 20 mm from the most distal implant. The measurements of deformation by compression and tension were obtained. The statistical 2-way ANOVA test was used for individual analysis of the experiment variables and the Tukey test was used for the interrelation between all the variables (material and distance of force application). Results: The results showed that both variables had influence on the studied factors (deformation by compression and tension). Conclusion: The ceramic coating provided greater rigidity to the assembly and therefore less distortion compared with the uncoated framework and with the resin-coated framework. The cantilever arm length also influenced the prosthesis rigidity, causing higher deformation the farther the load was applied from the last implant.
Resumo:
Management and organization literature has extensively noticed the crucial role that improvisation assumes in organizations, both as a learning process (Miner, Bassoff & Moorman, 2001), a creative process (Fisher & Amabile, 2008), a capability (Vera & Crossan, 2005), and a personal disposition (Hmielesky & Corbett, 2006; 2008). My dissertation aims to contribute to the existing literature on improvisation, addressing two general research questions: 1) How does improvisation unfold at an individual level? 2) What are the potential antecedents and consequences of individual proclivity to improvise? This dissertation is based on a mixed methodology that allowed me to deal with these two general research questions and enabled a constant interaction between the theoretical framework and the empirical results. The selected empirical field is haute cuisine and the respondents are the executive chefs of the restaurants awarded by Michelin Guide in 2010 in Italy. The qualitative section of the dissertation is based on the analysis of 26 inductive case studies and offers a multifaceted contribution. First, I describe how improvisation works both as a learning and creative process. Second, I introduce a new categorization of individual improvisational scenarios (demanded creative improvisation, problem solving improvisation, and pure creative improvisation). Third, I describe the differences between improvisation and other creative processes detected in the field (experimentation, brainstorming, trial and error through analytical procedure, trial and error, and imagination). The quantitative inquiry is founded on a Structural Equation Model, which allowed me to test simultaneously the relationships between proclivity to improvise and its antecedents and consequences. In particular, using a newly developed scale to measure individual proclivity to improvise, I test the positive influence of industry experience, self-efficacy, and age on proclivity to improvise and the negative impact of proclivity to improvise on outcome deviation. Theoretical contributions and practical implications of the results are discussed.
Resumo:
I documenti cartacei vengono attualmente rimpiazzati dalle loro versioni elettroniche, che contengono anche alcune caratteristiche biometriche; questo ha permesso il controllo automatico, sia quando il documento viene rilasciato, sia quando l'identità della persona deve essere verificata. Per rendere questo possibile è necessario che la fotografia rispetti degli standard di qualità. Lo standard ISO/IEC 19794-5 fornisce alcune guide linea ed esempi di immagini di volto accettabili e non-accettabili. Negli ultimi anni, molte aziende hanno sviluppato SDK con lo scopo di implementare i test proposti dallo standard. La tesi si prefigura il compito di fornire un framework che fornisca buone prestazioni, sia per quanto riguarda i tempi sia per l'accuratezza dei risultati.
Resumo:
Internet of Energy è un progetto di ricerca europeo nato con lo scopo di sviluppare infrastrutture hardware e software volte a introdurre la mobilità elettrica veicolare nei moderni contesti urbani. È stato oggetto di tesi di Federco Montori il quale ha sviluppato un primo prototipo di piattaforma comprendente un servizio cittadino di gestione delle ricariche, un’applicazione mobile che vi interagiva e infine un simulatore necessario al test della piattaforma. Nel corso di oltre un anno di sviluppo ho riscritto tutte le componenti software che costituivano il progetto ampliandone notevolmente le funzionalità, rendendole modulari e ben ingegnerizzate. Del progetto originario è stata ereditata l’architettura ontology-based basata sullo scambio di informazioni tramite il Semantic Information Broker (SIB). Il mio contributo è iniziato nel 2012 con la riscrittura dell’applicazione mobile che inizialmente funzionava solo in presenza del simulatore. Attualmente permette di interfacciarsi a un veicolo reale tramite la tecnologia Blue&Me di Fiat. Questo approccio è stato reso possibile grazie all’opportunità offerta dal Centro Ricerche Fiat, che ci ha permesso di testare presso loro sede l’applicazione mobile su un prototipo di Daily elettrico. Ho inoltre introdotto lo studio del profilo altimetrico e consumo energetico che separa il possessore dello smartphone da una determinata destinazione. Nel 2013 ho deciso di riscrivere il Servizio Cittadino per renderlo conforme a un nuovo protocollo di prenotazione. Ho colto l’occasione per rendere il servizio altamente performante grazie a tecniche quali: pool di thread, pool di oggetti e caching. Infine a cavallo tra il 2013 e il 2014 ho riscritto il simulatore al fine di ottimizzare il consumo di risorse, velocizzare il setup delle simulazioni e sopratutto renderlo più conforme alla realtà. Questo lavoro ha permesso di avere una piattaforma software che permette di valutare realisticamente gli scenari di mobilità elettrica veicolare.
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
Lo scopo di IDCardOCR è quello di permettere all'utente di acquisire i dati di una persona in formato strutturato eseguendo una semplice foto del suo documento di identità. I dati salvati saranno così a disposizione dell’utente in formato digitale. Permette, a differenze di altre applicazioni, la creazione di una maschera personalizzata dove è l’utente a decidere i dati da digitalizzare. Il riconoscimento ottico dei caratteri è implementato dal tool Tesseract-OCR Obiettivo della tesi è quello di approfondire lo studio dei sistemi di OCR e del loro funzionamento in ambiente Android, applicare tecniche di ritaglio e elaborazione delle immagini, approfondimento delle piattaforma di sviluppo. La tesi è cosi strutturata. Il primo capitolo contiene l’introduzione al problema, una panoramica sulle applicazioni esistenti e i motivi che ci hanno spinto ha scegliere la piattaforma di sviluppo Andriod. Il capitolo due tratta delle progettazione dell’applicazione attraverso diagrammi UML e introduce l’architettura del sistema. Il capitolo tre è incentrato sulla parte di sviluppo, infine nel quarto capitolo, si conclude la tesi con i risultati dei test effettuati e i possibili sviluppi futuri.
Resumo:
La tesi tratta dell'esplorazione di una possibile interfaccia utente per Smart Glass in un contesto di utilizzo hands-free con elementi virtuali appartenenti ad un sistema di riferimento solidale all'utente e non al dispositivo, e la conseguente realizzazione di un Framework per lo sviluppo di applicazioni Andoid rispondenti a tale interfaccia e relativo test.
Resumo:
Sviluppare e manutenere applicativi destinati a differenti piattaforme è un’opzione esclusiva di quelle entità capaci di sostenere costi molto alti per la realizzazione di queste applicazioni. Questo esclude gli sviluppatori indipendenti, che spesso realizzano prodotti in totale autonomia; le start-up, che hanno l’esigenza di sviluppare un’idea di business avendo a disposizione budget estremamente ridotti; le piccole aziende, alle quali viene così preclusa la possibilità di competere con player più importanti. Questo tipo di emergenze rende lo sviluppo cross-platform una soluzione interessante per la realizzazione delle applicazioni mobili, abbattendo i costi di sviluppo e permettendo di raggiungere più velocemente un pubblico più ampio. C'è quindi sempre maggiore interesse, da parte degli sviluppatori, per gli strumenti di sviluppo cross-platform. Per catturare l’attenzione degli sviluppatori è necessario che lo strumento sia dotato di buona stabilità, che offra un ambiente di sviluppo confortevole, una buona user experience, facilità di aggiornamento, tempi di sviluppo contenuti e possibilità di immissione delle applicazioni su diversi ecosistemi software. L’idea alla base di questa Tesi di laurea è valutare i pro e i contro di uno di questi framework cross-platform e compararlo con le tecnologie native. Il framework scelto è Ionic per via della sua popolarità tra gli sviluppatori e della ridotta bibliografia scientifica a riguardo. Molte ricerche scientifiche valutano le prestazioni di uno o più framework cross-platform rispetto ad una soluzione nativa, tuttavia è raro un confronto tra un framework e più soluzioni native. Per questo, oltre a valutare i pro e i contro del framework, verrà anche effettuata una comparazione tra gli applicativi nativi per Android e iOS e le controparti sviluppate attraverso Ionic, permettendo di identificare eventuali differenze di performance e aiutare gli sviluppatori nelle scelte tecnologiche.
Resumo:
Code profiling is an essential activity to increase software quality. It is commonly employed in a wide variety of tasks, such as supporting program comprehension, determining execution bottlenecks, and assessing code coverage by unit tests. Spy is an innovative framework to easily build profilers and visualize profiling information. The profiling information is obtained by inserting dedicated code before or after method execution. The gathered profiling information is structured in line with the application structure in terms of packages, classes, and methods. Spy has been instantiated on four occasions so far. We created profilers dedicated to test coverage, time execution, type feedback, and profiling evolution across version. We also integrated Spy in the Pharo IDE. Spy has been implemented in the Pharo Smalltalk programming language and is available under the MIT license.