991 resultados para software creation methodology


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Aquesta tesi forma part d'un projecte destinat a predir el rendiment acadèmic dels estudiants de doctorat portat a terme per l'INSOC (International Network on Social Capital and Performance). El grup de recerca INSOC està format per les universitats de Girona (Espanya), Ljubljana (Eslovènia), Giessen (Alemanya) i Ghent (Bèlgica). El primer objectiu d'aquesta tesi és desenvolupar anàlisis quantitatius comparatius sobre el rendiment acadèmic dels estudiants de doctorat entre Espanya, Eslovènia i Alemanya a partir dels resultats individuals del rendiment acadèmic obtinguts de cada una de les universitats. La naturalesa internacional del grup de recerca implica la recerca comparativa. Vam utilitzar variables personal, actitudinals i de xarxa per predir el rendiment. El segon objectiu d'aquesta tesi és entendre de manera qualitativa perquè les variables de xarxa no ajuden quantitativament a predir el rendiment a la universitat de Girona (Espanya). En el capítol 1, definim conceptes relacionats amb el rendiment i donam un llistat de cada una de les variables independents (variables de xarxa, personals i actitudinals), resumint la lliteratura. Finalment, explicam com s'organitzen els estudis de doctorat a cada un dels diferents països. A partir d'aquestes definicions teòriques, en els pròxims capítols, primer presentarem els qüestionaris utilitzats a Espanya, Eslovènia i Alemanya per mesurar aquests diferents tipus de variables. Després, compararem les variables que són relevants per predir el rendiment dels estudiants de doctorat a cada país. Després d'això, fixarem diferents models de regressió per predir el rendiment entre països. En tots aquests models les variables de xarxa fallen a predir el rendiment a la Universitat de Girona. Finalment, utilitzem estudis qualitatius per entendre aquests resultats inesperats. En el capítol 2, expliquem com hem dissenyat i conduït els qüestionaris en els diferents països amb l'objectiu d'explicar el rendiment dels estudiants de doctorat obtinguts a Espanya, Eslovènia i Alemanya. En el capítol 3, cream indicadors comparables però apareixen problemes de comparabilitat en preguntes particulars a Espanya, Eslovènia i Alemanya. En aquest capítol expliquem com utilitzem les variables dels tres països per crear indicadors comparables. Aquest pas és molt important perquè el principal objectiu del grup de recerca INSOC és comparar el rendiment dels estudiants de doctorat entre els diferents països. En el capítol 4 comparem models de regressió obtinguts de predir el rendiment dels estudiants de doctorat a les universitats de Girona (Espanya) i Eslovènia. Les variables són característiques dels grups de recerca dels estudiants de doctorat enteses com una xarxa social egocèntrica, característiques personals i actitudinals dels estudiants de doctorat i algunes carecterístiques dels directors. Vam trobar que les variables de xarxa egocèntriques no predien el rendiment a la Universitat de Girona. En el capítol 5, comparem dades eslovenes, espanyoles i alemnayes, seguint la metodologia del capítol 4. Concluïm que el cas alemany és molt diferent. El poder predictiu de les variables de xarxa no millora. En el capítol 6 el grup de recerca dels estudiants de doctorat és entès com una xarxa duocèntrica (Coromina et al., 2008), amb l'objectiu d'obtendre informació de la relació mútua entre els estudiants i els seus directors i els contactes d'ambdós amb els altres de la xarxa. La inclusió de la xarxa duocèntrica no millora el poder predictiu del model de regressió utilitzant les variales egocèntriques de xarxa. El capítol 7 pretèn entendre perquè les variables de xarxa no predeixen el rendiment a la Universitat de Girona. Utilitzem el mètode mixte, esperant que l'estudi qualitatiu pugui cobrir les raons de perquè la qualitat de la xarxa falla en la qualitat del treball dels estudiants. Per recollir dades per l'estudi qualitatiu utilitzem entrevistes en profunditat.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El treball desenvolupat en aquesta tesi presenta un profund estudi i proveïx solucions innovadores en el camp dels sistemes recomanadors. Els mètodes que usen aquests sistemes per a realitzar les recomanacions, mètodes com el Filtrat Basat en Continguts (FBC), el Filtrat Col·laboratiu (FC) i el Filtrat Basat en Coneixement (FBC), requereixen informació dels usuaris per a predir les preferències per certs productes. Aquesta informació pot ser demogràfica (Gènere, edat, adreça, etc), o avaluacions donades sobre algun producte que van comprar en el passat o informació sobre els seus interessos. Existeixen dues formes d'obtenir aquesta informació: els usuaris ofereixen explícitament aquesta informació o el sistema pot adquirir la informació implícita disponible en les transaccions o historial de recerca dels usuaris. Per exemple, el sistema recomanador de pel·lícules MovieLens (http://movielens.umn.edu/login) demana als usuaris que avaluïn almenys 15 pel·lícules dintre d'una escala de * a * * * * * (horrible, ...., ha de ser vista). El sistema genera recomanacions sobre la base d'aquestes avaluacions. Quan els usuaris no estan registrat en el sistema i aquest no té informació d'ells, alguns sistemes realitzen les recomanacions tenint en compte l'historial de navegació. Amazon.com (http://www.amazon.com) realitza les recomanacions tenint en compte les recerques que un usuari a fet o recomana el producte més venut. No obstant això, aquests sistemes pateixen de certa falta d'informació. Aquest problema és generalment resolt amb l'adquisició d'informació addicional, se li pregunta als usuaris sobre els seus interessos o es cerca aquesta informació en fonts addicionals. La solució proposada en aquesta tesi és buscar aquesta informació en diverses fonts, específicament aquelles que contenen informació implícita sobre les preferències dels usuaris. Aquestes fonts poden ser estructurades com les bases de dades amb informació de compres o poden ser no estructurades com les pàgines web on els usuaris deixen la seva opinió sobre algun producte que van comprar o posseïxen. Nosaltres trobem tres problemes fonamentals per a aconseguir aquest objectiu: 1 . La identificació de fonts amb informació idònia per als sistemes recomanadors. 2 . La definició de criteris que permetin la comparança i selecció de les fonts més idònies. 3 . La recuperació d'informació de fonts no estructurades. En aquest sentit, en la tesi proposada s'ha desenvolupat: 1 . Una metodologia que permet la identificació i selecció de les fonts més idònies. Criteris basats en les característiques de les fonts i una mesura de confiança han estat utilitzats per a resoldre el problema de la identificació i selecció de les fonts. 2 . Un mecanisme per a recuperar la informació no estructurada dels usuaris disponible en la web. Tècniques de Text Mining i ontologies s'han utilitzat per a extreure informació i estructurar-la apropiadament perquè la utilitzin els recomanadors. Les contribucions del treball desenvolupat en aquesta tesi doctoral són: 1. Definició d'un conjunt de característiques per a classificar fonts rellevants per als sistemes recomanadors 2. Desenvolupament d'una mesura de rellevància de les fonts calculada sobre la base de les característiques definides 3. Aplicació d'una mesura de confiança per a obtenir les fonts més fiables. La confiança es definida des de la perspectiva de millora de la recomanació, una font fiable és aquella que permet millorar les recomanacions. 4. Desenvolupament d'un algorisme per a seleccionar, des d'un conjunt de fonts possibles, les més rellevants i fiable utilitzant les mitjanes esmentades en els punts previs. 5. Definició d'una ontologia per a estructurar la informació sobre les preferències dels usuaris que estan disponibles en Internet. 6. Creació d'un procés de mapatge que extreu automàticament informació de les preferències dels usuaris disponibles en la web i posa aquesta informació dintre de l'ontologia. Aquestes contribucions permeten aconseguir dos objectius importants: 1 . Millorament de les recomanacions usant fonts d'informació alternatives que sigui rellevants i fiables. 2 . Obtenir informació implícita dels usuaris disponible en Internet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho de Investigação teve como objetivo a construção de um microtesauro na área da Dança. Face à inexistência de um Tesauro especializado na área da Dança, quer a nível nacional, quer internacional, e para dar resposta às necessidades de uma recuperação mais eficaz de informação nas Unidades Documentaisi Especializadas em Dança. Neste caso, em particular, no Centro de Informação e Documentação (CDI) da Escola Superior de Dança (ESD). Percebeu-se que a construção deste microtesauro, tendo em conta as normas nacionais e internacionais para o efeito. No âmbito das funções desempenhadas no CDI foi identificada a necessidade de existir um instrumento de Linguagem Documental adequado, que permitisse nas Pesquisas bibliográficas, recuperar por Assunto os documentos existentes na Base de Dados. A Pesquisa Bibliográfica, apenas disponível por Título e por Autor, veio a revelar-se insuficiente, e a impossibilidade de pesquiasr os documentos por Assunto traduzia-se numa carência crescente dos utilizadores e do próprio Serviço. A Metodologia seguida para a construção deste Microtesauro, teve como base uma lista de Termos de Indexação construída a partir da análise de uma amostra de 125 monografias e a consulta de várias fontes de informção (monografias e obras de referência, linguagens documentais, e entrevistas informais a docentes da ESD). A análise, quantificação e qualificação dos termos que constituem este microtesauro teve o acompanhamento, avaliação e adequação contínua por parte de alguns docentes da ESD, investigadores e especialistas em Dança. A Dança, enquanto objeto de exploração teórica, revela-se uma disciplina transversal a várias áreas do conhecimento que, agrupadas em classes, correspondem a 8 áreas do saber, relacionadas com a Dança, tendo em consideração as temáticas do espólio documental do CDI e as matérias lecionadas nas Unidades Curriculares dos cursos de Licenciatura e Mestrados da ESD. O microtesauro na área da Dança, que resulta do nosso trabalho de investigação, é constituído por Descritores, Não-Descritores, e suas relações de equivalência hierárquicas e associativas, apresentando-se no final deste trabalho, em apêndice, devido à sua dimensão. O mesmo resulta de um processos de construção individual, inicialmente elaborado de forma manual e posteriormente transposto para um Software Documental CDS/ISIS para Windows, que veio agilizar a estruturação do microtesauro. Este microtesauro na área da Dança, em Língua Portuguesa, constitui um importante contributo para as Bibliotecas e Centros de Documentação que detêm documentação nesta área específica, dado colmatar uma lacuna existente neste domínio do conhecimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Purpose – The purpose of this paper is to focus on the intellectual property (IP) aspects of mergers and acquisitions (M&A) transactions. Design/methodology/approach – A holistic approach is proposed that embraces IP as an integral part of the M&A process in the form of a roadmap for the strategic and purposeful management of IP assets in M&A deals. Findings – Addressing IP issues in transactions in isolation can lead to undesirable consequences (e.g. considerable costs for unplanned purchases of rights). IP due diligence and IP integration project processes can be automated using collaborative software solutions. Thereby, risk can be reduced through the creation of a high level of transparency and predefined responsibilities. Practical implications – Although the proposed IP management framework is based on intellectual property matters relevant to German jurisdiction, conclusions derived and the proposed roadmap are transferable to other jurisdictions and hence have a broader relevance. Evidence for this is provided by the successful application of the roadmap in the context of the multinational transaction stated above. Originality/value – This paper is based on the authors' collective experience, insight and reflected observation of M&A practice gained in advisory M&A roles in management consultancies over a period of more than a decade. The paper summarizes the authors' reflections and observations and brings these into the context of the current management literature. Moreover, this paper builds on earlier published research.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

To investigate the perception of emotional facial expressions, researchers rely on shared sets of photos or videos, most often generated by actor portrayals. The drawback of such standardized material is a lack of flexibility and controllability, as it does not allow the systematic parametric manipulation of specific features of facial expressions on the one hand, and of more general properties of the facial identity (age, ethnicity, gender) on the other. To remedy this problem, we developed FACSGen: a novel tool that allows the creation of realistic synthetic 3D facial stimuli, both static and dynamic, based on the Facial Action Coding System. FACSGen provides researchers with total control over facial action units, and corresponding informational cues in 3D synthetic faces. We present four studies validating both the software and the general methodology of systematically generating controlled facial expression patterns for stimulus presentation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract: A new methodology was created to measure the energy consumption and related green house gas (GHG) emissions of a computer operating system (OS) across different device platforms. The methodology involved the direct power measurement of devices under different activity states. In order to include all aspects of an OS, the methodology included measurements in various OS modes, whilst uniquely, also incorporating measurements when running an array of defined software activities, so as to include OS application management features. The methodology was demonstrated on a laptop and phone that could each run multiple OSs, results confirmed that OS can significantly impact the energy consumption of devices. In particular, the new versions of the Microsoft Windows OS were tested and highlighted significant differences between the OS versions on the same hardware. The developed methodology could enable a greater awareness of energy consumption, during both the software development and software marketing processes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Optimization of photo-Fenton degradation of copper phthalocyanine blue was achieved by response surface methodology (RSM) constructed with the aid of a sequential injection analysis (SIA) system coupled to a homemade photo-reactor. Highest degradation percentage was obtained at the following conditions [H(2)O(2)]/[phthalocyanine] = 7, [H(2)O(2)]/[FeSO(4)] = 10, pH = 2.5, and stopped flow time in the photo reactor = 30 s. The SIA system was designed to prepare a monosegment containing the reagents and sample, to pump it toward the photo-reactor for the specified time and send the products to a flow-through spectrophotometer for monitoring the color reduction of the dye. Changes in parameters such as reagent molar ratios. residence time and pH were made by modifications in the software commanding the SI system, without the need for physical reconfiguration of reagents around the selection valve. The proposed procedure and system fed the statistical program with degradation data for fast construction of response surface plots. After optimization, 97% of the dye was degraded. (C) 2009 Elsevier B.V. All rights reserved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this project, two broad facets in the design of a methodology for performance optimization of indexable carbide inserts were examined. They were physical destructive testing and software simulation.For the physical testing, statistical research techniques were used for the design of the methodology. A five step method which began with Problem definition, through System identification, Statistical model formation, Data collection and Statistical analyses and results was indepthly elaborated upon. Set-up and execution of an experiment with a compression machine together with roadblocks and possible solution to curb road blocks to quality data collection were examined. 2k factorial design was illustrated and recommended for process improvement. Instances of first-order and second-order response surface analyses were encountered. In the case of curvature, test for curvature significance with center point analysis was recommended. Process optimization with method of steepest ascent and central composite design or process robustness studies of response surface analyses were also recommended.For the simulation test, AdvantEdge program was identified as the most used software for tool development. Challenges to the efficient application of this software were identified and possible solutions proposed. In conclusion, software simulation and physical testing were recommended to meet the objective of the project.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Agent-oriented software engineering (AOSE) is a promising approach to developing applications for dynamic open systems. If well developed, these applications can be opportunistic, taking advantage of services implemented by other developers at appropriate times. However, methodologies are needed to aid the development of systems that are both flexible enough to be opportunistic and tightly defined by the application requirements. In this paper, we investigate how developers can choose the coordination mechanisms of agents so that the agents will best fulfil application requirements in an open system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Provenance refers to the past processes that brought about a given (version of an) object, item or entity. By knowing the provenance of data, users can often better understand, trust, reproduce, and validate it. A provenance-aware application has the functionality to answer questions regarding the provenance of the data it produces, by using documentation of past processes. PrIMe is a software engineering technique for adapting application designs to enable them to interact with a provenance middleware layer, thereby making them provenance-aware. In this article, we specify the steps involved in applying PrIMe, analyse its effectiveness, and illustrate its use with two case studies, in bioinformatics and medicine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho descreve PMT – Pattern-based Methodology Tailoring, uma abordagem para a adaptação de metodologias de desenvolvimento de software, baseada em padrões e em critérios de risco. Seu principal objetivo é estabelecer meios de se adaptar uma linguagem de padrões organizacionais ao contexto de um projeto específico, o que é obtido através da seleção sistemática dos padrões organizacionais mais adequados aos requisitos do projeto. O trabalho é motivado pelo levantamento de que os arcabouços de processos de software existentes pouco fazem para compreender as necessidades de um projeto antes de definir a metodologia a ser aplicada. PMT utiliza uma análise dos riscos e do contexto de criticalidade para guiar o processo de adaptação. Padrões organizacionais que descrevem técnicas preventivas para os riscos identificados são selecionados por um mecanismo sistemático de seleção, o qual é suportado por uma ferramenta, chamada PMT-Tool.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Estudo da teoria das opções reais que incorpora à avaliação de projetos de investimentos, as opções de crescimento e as flexibilidades gerenciais que surgem devido às incertezas existentes no ambiente no qual as empresas operam. Aborda os métodos tradicionais de avaliação de investimentos baseados no fluxo de caixa descontado (FCD), destaca as suas vantagens e limitações; a teoria das opções reais mostrando suas vantagens em relação aos métodos tradicionais; e um estudo de caso. Tem como objetivo principal apresentar que a teoria das opções reais é viável e complementar aos métodos tradicionais de avaliação de investimentos na indústria de mineração de ferro, com a abordagem da avaliação em tempo discreto. Este método permite especificar o problema de análise e resolvê-lo com o uso de programa de software de análise de decisão disponível no mercado de forma mais simples e mais intuitivo que os métodos tradicionais de avaliação de opções reais e permite maior flexibilidade na modelagem do problema de avaliação. A modelagem das opções reais do projeto baseia-se no uso de árvore de decisão binomial para modelar o processo estocástico. A avaliação é realizada em quatro passos de acordo com a metodologia proposta por Copeland e Antikarov (2001) e Brandão e Dyer (2005): modelagem do ativo básico, ou seja, cálculo do valor presente líquido sem flexibilidade; criação do modelo binomial utilizando o software computacional para modelar o ativo básico, computando as probabilidades neutras a risco; modelagem das opções reais no projeto; e resolução da árvore binomial, ou seja, análise das opções reais. Os resultados apresentados demonstram que é possível implementar a abordagem da avaliação de opções reais em projetos de investimentos na indústria de mineração de ferro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde que Chesbrough (2003) cunhou o termo inovação aberta, o conceito tem atraído uma atenção crescente tanto no meio acadêmico quanto no mundo empresarial. Apesar dos esforços crescentes em explorar práticas de inovação aberta, muitas perguntas permanecem sem resposta. A pesquisa acadêmica expandiu o foco abordando o tema de forma bastante ampla como gestão da inovação, estratégia empresarial, comportamento organizacional e políticas públicas. Ao mesmo tempo, gestores também têm explorado na prática o conceito de inovação aberta de formas muito diversificadas. Levando em conta a variabilidade das práticas de inovação aberta, este estudo visa fornecer microfundamentos para a inovação aberta, adotando a teoria de effectuation. A teoria de effectuation foi originalmente desenvolvida no campo da pesquisa sobre empreendedorismo. Pode ser definida como um conjunto de princípios de tomada de decisão que pode ser ensinado e aprendido, formando uma lógica global empregada por empreendedores com expertise frente a situações de incerteza durante a criação de novos empreendimentos e novos mercados (SARASVATHY, 2001; 2008). Nós demostramos que a teoria effectuation tem a consistência para fornecer uma contribuição sólida no nível micro das práticas de inovação aberta. Neste trabalho, realizamos um estudo de caso extensivo sobre uma organização de gestão da inovação aberta destinada a promover a colaboração entre Brasil e Suécia. Examinamos os processos de tomada de decisão de 13 especialistas em R&D e gerentes de inovação que juntos representam oito diferentes entidades envolvidas em sua criação. Como resultado de nossa pesquisa, identificamos e descrevemos a metodologia de tomada de decisão utilizada pelos gestores de inovação envolvidos na criação de uma organização dedicada à gestão da inovação aberta. As percepções frutos da pesquisa realizada nos permitiu desenvolver um quadro de tomada de decisão com base nas teorias de effectuation e inovação aberta, capaz de apoiar gestores na criação de novas organizações dedicadas à gestão da inovação aberta.