981 resultados para Multi métodos
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
En el presente trabajo se desarrolla una discusión sobre los desafíos que implica investigar en Ciencia de la Información en el marco de la modernidad contemporánea. Por una parte se discuten los desafíos teóricos, epistemológicos y metodológicos que se presentan ante una realidad conceptualizada como modernidad liquida o modernidad reflexiva, que crece en abstracción y sostiene un proceso de individualización afectando sustancialmente a los actores sociales y a las instituciones. En ese contexto, se problematiza el carácter complejo de las categorías clásicas de diferentes disciplinas, y se argumenta sobre la necesidad de mantener la distancia epistemológica con el objeto de estudio. Por último, se analiza el pasaje del paradigma positivista lógico al post positivista y su relación convergente en este proceso con el paradigma constructivista/naturalista. Esto nos permite contextualizar el uso de un enfoque metodológico multi métodos o de métodos combinados como herramienta necesaria para dar cuenta de objetos de estudio complejos que se despliegan en múltiples planos de la realidad.
Resumo:
En el presente trabajo se desarrolla una discusión sobre los desafíos que implica investigar en Ciencia de la Información en el marco de la modernidad contemporánea. Por una parte se discuten los desafíos teóricos, epistemológicos y metodológicos que se presentan ante una realidad conceptualizada como modernidad liquida o modernidad reflexiva, que crece en abstracción y sostiene un proceso de individualización afectando sustancialmente a los actores sociales y a las instituciones. En ese contexto, se problematiza el carácter complejo de las categorías clásicas de diferentes disciplinas, y se argumenta sobre la necesidad de mantener la distancia epistemológica con el objeto de estudio. Por último, se analiza el pasaje del paradigma positivista lógico al post positivista y su relación convergente en este proceso con el paradigma constructivista/naturalista. Esto nos permite contextualizar el uso de un enfoque metodológico multi métodos o de métodos combinados como herramienta necesaria para dar cuenta de objetos de estudio complejos que se despliegan en múltiples planos de la realidad.
Resumo:
En el presente trabajo se desarrolla una discusión sobre los desafíos que implica investigar en Ciencia de la Información en el marco de la modernidad contemporánea. Por una parte se discuten los desafíos teóricos, epistemológicos y metodológicos que se presentan ante una realidad conceptualizada como modernidad liquida o modernidad reflexiva, que crece en abstracción y sostiene un proceso de individualización afectando sustancialmente a los actores sociales y a las instituciones. En ese contexto, se problematiza el carácter complejo de las categorías clásicas de diferentes disciplinas, y se argumenta sobre la necesidad de mantener la distancia epistemológica con el objeto de estudio. Por último, se analiza el pasaje del paradigma positivista lógico al post positivista y su relación convergente en este proceso con el paradigma constructivista/naturalista. Esto nos permite contextualizar el uso de un enfoque metodológico multi métodos o de métodos combinados como herramienta necesaria para dar cuenta de objetos de estudio complejos que se despliegan en múltiples planos de la realidad.
Resumo:
The objective of this study was to understand the relationship between people with disabilities and their labor. Senses and meanings related to work were specifically identified; also describing the impediments of concrete activities, as well the strategies developed for overcoming them. This objective is inspired on the social historic cultural theoretical perspective as well as on the activity's theory. The research has been made possible through the interview of 16 workers from a IES, it categorizes as a multi-method sequential and transversal study of qualitative orientation, making use the technics of narrative interviews and photographic creation. The results indicate that work was described as a necessity, a source of pleasure, recognition and socialization; with emphasis on the importance of working in pairs in order to accomplish good quality work. Senses were obtained from each participant, identified by the way that each of them expressed themselves. Impediments were more deeply related to the physical conditions of the work environment than to the person's disabilities. Conclusion points out that the access to work, acts as a social inclusion tool for peoples with disabilities, and showing that, the laws regarding quota reservations fulfill their objective.
Resumo:
These slides present several 3-D reconstruction methods to obtain the geometric structure of a scene that is viewed by multiple cameras. We focus on the combination of the geometric modeling in the image formation process with the use of standard optimization tools to estimate the characteristic parameters that describe the geometry of the 3-D scene. In particular, linear, non-linear and robust methods to estimate the monocular and epipolar geometry are introduced as cornerstones to generate 3-D reconstructions with multiple cameras. Some examples of systems that use this constructive strategy are Bundler, PhotoSynth, VideoSurfing, etc., which are able to obtain 3-D reconstructions with several hundreds or thousands of cameras. En esta presentación se tratan varios métodos de reconstrucción 3-D para la obtención de la estructura geométrica de una escena que es visualizada por varias cámaras. Se enfatiza la combinación de modelado geométrico del proceso de formación de la imagen con el uso de herramientas estándar de optimización para estimar los parámetros característicos que describen la geometría de la escena 3-D. En concreto, se presentan métodos de estimación lineales, no lineales y robustos de las geometrías monocular y epipolar como punto de partida para generar reconstrucciones con tres o más cámaras. Algunos ejemplos de sistemas que utilizan este enfoque constructivo son Bundler, PhotoSynth, VideoSurfing, etc., los cuales, en la práctica pueden llegar a reconstruir una escena con varios cientos o miles de cámaras.
Resumo:
Los problemas de corte y empaquetado son una familia de problemas de optimización combinatoria que han sido ampliamente estudiados en numerosas áreas de la industria y la investigación, debido a su relevancia en una enorme variedad de aplicaciones reales. Son problemas que surgen en muchas industrias de producción donde se debe realizar la subdivisión de un material o espacio disponible en partes más pequeñas. Existe una gran variedad de métodos para resolver este tipo de problemas de optimización. A la hora de proponer un método de resolución para un problema de optimización, es recomendable tener en cuenta el enfoque y las necesidades que se tienen en relación al problema y su solución. Las aproximaciones exactas encuentran la solución óptima, pero sólo es viable aplicarlas a instancias del problema muy pequeñas. Las heurísticas manejan conocimiento específico del problema para obtener soluciones de alta calidad sin necesitar un excesivo esfuerzo computacional. Por otra parte, las metaheurísticas van un paso más allá, ya que son capaces de resolver una clase muy general de problemas computacionales. Finalmente, las hiperheurísticas tratan de automatizar, normalmente incorporando técnicas de aprendizaje, el proceso de selección, combinación, generación o adaptación de heurísticas más simples para resolver eficientemente problemas de optimización. Para obtener lo mejor de estos métodos se requiere conocer, además del tipo de optimización (mono o multi-objetivo) y el tamaño del problema, los medios computacionales de los que se dispone, puesto que el uso de máquinas e implementaciones paralelas puede reducir considerablemente los tiempos para obtener una solución. En las aplicaciones reales de los problemas de corte y empaquetado en la industria, la diferencia entre usar una solución obtenida rápidamente y usar propuestas más sofisticadas para encontrar la solución óptima puede determinar la supervivencia de la empresa. Sin embargo, el desarrollo de propuestas más sofisticadas y efectivas normalmente involucra un gran esfuerzo computacional, que en las aplicaciones reales puede provocar una reducción de la velocidad del proceso de producción. Por lo tanto, el diseño de propuestas efectivas y, al mismo tiempo, eficientes es fundamental. Por esta razón, el principal objetivo de este trabajo consiste en el diseño e implementación de métodos efectivos y eficientes para resolver distintos problemas de corte y empaquetado. Además, si estos métodos se definen como esquemas lo más generales posible, se podrán aplicar a diferentes problemas de corte y empaquetado sin realizar demasiados cambios para adaptarlos a cada uno. Así, teniendo en cuenta el amplio rango de metodologías de resolución de problemas de optimización y las técnicas disponibles para incrementar su eficiencia, se han diseñado e implementado diversos métodos para resolver varios problemas de corte y empaquetado, tratando de mejorar las propuestas existentes en la literatura. Los problemas que se han abordado han sido: el Two-Dimensional Cutting Stock Problem, el Two-Dimensional Strip Packing Problem, y el Container Loading Problem. Para cada uno de estos problemas se ha realizado una amplia y minuciosa revisión bibliográfica, y se ha obtenido la solución de las distintas variantes escogidas aplicando diferentes métodos de resolución: métodos exactos mono-objetivo y paralelizaciones de los mismos, y métodos aproximados multi-objetivo y paralelizaciones de los mismos. Los métodos exactos mono-objetivo aplicados se han basado en técnicas de búsqueda en árbol. Por otra parte, como métodos aproximados multi-objetivo se han seleccionado unas metaheurísticas multi-objetivo, los MOEAs. Además, para la representación de los individuos utilizados por estos métodos se han empleado codificaciones directas mediante una notación postfija, y codificaciones que usan heurísticas de colocación e hiperheurísticas. Algunas de estas metodologías se han mejorado utilizando esquemas paralelos haciendo uso de las herramientas de programación OpenMP y MPI.
Resumo:
A modelagem orientada a agentes surge como paradigma no desenvolvimento de software, haja vista a quantidade de iniciativas e estudos que remetem à utilização de agentes de software como solução para tratar de problemas mais complexos. Apesar da popularidade de utilização de agentes, especialistas esbarram na falta de universalidade de uma metodologia para construção dos Sistemas Multiagentes (MAS), pois estas acabam pecando pelo excesso ou falta de soluções para modelar o problema. Esta dissertação propõe o uso de uma Ontologia sobre Metodologias Multiagentes, seguindo os princípios da Engenharia de Métodos Situacionais que se propõe a usar fragmentos de métodos para construção de metodologias baseados na especificidade do projeto em desenvolvimento. O objetivo do estudo é sedimentar o conhecimento na área de Metodologias Multiagentes, auxiliando o engenheiro de software a escolher a melhor metodologia ou o melhor fragmento de metodologia capaz de modelar um Sistema Multiagentes.
Resumo:
Dutos de transmissão são tubulações especialmente desenvolvidas para transportar produtos diversos a longas distâncias e representam a forma mais segura e econômica de transporte para grandes quantidades de fluidos. Os dutos de gás natural, denominados gasodutos, são usados para transportar o gás desde os campos de produção até os centros consumidores, onde o gás é inserido em redes de distribuição para entrega aos consumidores finais. Os gasodutos de transporte apresentam diversas características de monopólio natural, que são o principal argumento econômico para sua regulação. A regulação visa garantir que esta atividade seja explorada de maneira eficiente, refletindo em tarifas de transporte justas para os consumidores e que proporcionem o retorno adequado aos investidores, levando-se em consideração a quantidade de gás transportado. Neste contexto, o presente trabalho tem como objetivo propor metodologias de otimização multi-objetivo de projetos de redes de gasodutos de transporte, envolvendo métodos a posteriori. O problema de otimização formulado contempla restrições associadas ao escoamento do gás e o comportamento das estações de compressão. A solução do problema fornece um conjunto de projetos ótimos de redes de transporte em função da maximização da quantidade de gás natural transportado e da minimização da tarifa associada a esse serviço. A ferramenta foi aplicada a diversos estudos de caso com configurações típicas da indústria de transporte de gás natural. Os resultados mostraram que as metodologias propostas são capazes de fornecer subsídios que permitem ao tomador de decisão do ponto de vista regulatório realizar uma análise de trade-off entre a quantidade de gás transportado e a tarifa, buscando assim atender ao interesse da sociedade em relação à exploração do serviço de transporte
Resumo:
Desde a década de 1960, devido à pertinência para a indústria petrolífera, a simulação numérica de reservatórios de petróleo tornou-se uma ferramenta usual e uma intensa área de pesquisa. O principal objetivo da modelagem computacional e do uso de métodos numéricos, para a simulação de reservatórios de petróleo, é o de possibilitar um melhor gerenciamento do campo produtor, de maneira que haja uma maximização na recuperação de hidrocarbonetos. Este trabalho tem como objetivo principal paralelizar, empregando a interface de programação de aplicativo OpenMP (Open Multi-Processing), o método numérico utilizado na resolução do sistema algébrico resultante da discretização da equação que descreve o escoamento monofásico em um reservatório de gás, em termos da variável pressão. O conjunto de equações governantes é formado pela equação da continuidade, por uma expressão para o balanço da quantidade de movimento e por uma equação de estado. A Equação da Difusividade Hidráulica (EDH), para a variável pressão, é obtida a partir deste conjunto de equações fundamentais, sendo então discretizada pela utilização do Método de Diferenças Finitas, com a escolha por uma formulação implícita. Diferentes testes numéricos são realizados a fim de estudar a eficiência computacional das versões paralelizadas dos métodos iterativos de Jacobi, Gauss-Seidel, Sobre-relaxação Sucessiva, Gradientes Conjugados (CG), Gradiente Biconjugado (BiCG) e Gradiente Biconjugado Estabilizado (BiCGStab), visando a uma futura aplicação dos mesmos na simulação de reservatórios de gás. Ressalta-se que a presença de heterogeneidades na rocha reservatório e/ou às não-linearidades presentes na EDH para o escoamento de gás aumentam a necessidade de métodos eficientes do ponto de vista de custo computacional, como é o caso de estratégias usando OpenMP.
Resumo:
Tese de Doutoramento, Ciências do Mar (Biologia Marinha)
Resumo:
ABSTRACT - Objectives: We attempted to show how the implementation of the key elements of the World Health Organization Patient Safety Curriculum Guide Multi-professional Edition in an undergraduate curriculum affected the knowledge, skills, and attitudes towards patient safety in a graduate entry Portuguese Medical School. Methods: After receiving formal recognition by the WHO as a Complementary Test Site and approval of the organizational ethics committee , the validated pre-course questionnaires measuring the knowledge, skills, and attitudes to patient safety were administered to the 2nd and3rd year students pursuing a four-year course (N = 46). The key modules of the curriculum were implemented over the academic year by employing a variety of learning strategies including expert lecturers, small group problem-based teaching sessions, and Simulation Laboratory sessions. The identical questionnaires were then administered and the impact was measured. The Curriculum Guide was evaluated as a health education tool in this context. Results: A significant number of the respondents, 47 % (n = 22), reported having received some form of prior patient safety training. The effect on Patient Safety Knowledge was assessed by using the percentage of correct pre- and post-course answers to construct 2 × 2 contingency tables and by applying Fishers’ test (two-tailed). No significant differences were detected (p < 0.05). To assess the effect of the intervention on Patient Safety skills and attitudes, the mean and standard deviation were calculated for the pre and post-course responses, and independent samples were subjected to Mann-Whitney’s test. The attitudinal survey indicated a very high baseline incidence of desirable attitudes and skills toward patient safety. Significant changes were detected (p < 0.05) regarding what should happen if an error is made (p = 0.016), the role of healthcare organizations in error reporting (p = 0.006), and the extent of medical error (p = 0.005). Conclusions: The implementation of selected modules of the WHO Patient Safety Curriculum was associated with a number of positive changes regarding patient safety skills and attitudes, with a baseline incidence of highly desirable patient safety attitudes, but no measureable change on the patient safety knowledge, at the University of Algarve Medical School. The significance of these results is discussed along with implications and suggestions for future research.
Resumo:
Pesquisas de opinião freqüentemente utilizam questionários com muitos itens para avaliar um serviço ou produto. Nestas pesquisas, cada respondente, além de avaliar os itens segundo seu grau de satisfação ou concordância, deve também atribuir um grau de importância ao item. Com estas duas informações disponíveis para cada item, é possível criar uma medida resumo, na forma de um escore total, composto pela avaliação dos itens ponderada pela sua importância. O objetivo desta pesquisa é comparar os métodos de obtenção de importância mais utilizados na literatura, sob vários aspectos. A comparação dos métodos mostra que, quando se utiliza escalas comparativas, há maior discriminação dos itens em relação às importâncias obtidas, mas os questionários que aplicam estes métodos são mais confusos e cansativos para o respondente. A escala de diferencial semântico, por outro lado, é a de melhor entendimento por parte dos entrevistados mas o resultado é pouco discriminatório.
Resumo:
Equipment maintenance is the major cost factor in industrial plants, it is very important the development of fault predict techniques. Three-phase induction motors are key electrical equipments used in industrial applications mainly because presents low cost and large robustness, however, it isn t protected from other fault types such as shorted winding and broken bars. Several acquisition ways, processing and signal analysis are applied to improve its diagnosis. More efficient techniques use current sensors and its signature analysis. In this dissertation, starting of these sensors, it is to make signal analysis through Park s vector that provides a good visualization capability. Faults data acquisition is an arduous task; in this way, it is developed a methodology for data base construction. Park s transformer is applied into stationary reference for machine modeling of the machine s differential equations solution. Faults detection needs a detailed analysis of variables and its influences that becomes the diagnosis more complex. The tasks of pattern recognition allow that systems are automatically generated, based in patterns and data concepts, in the majority cases undetectable for specialists, helping decision tasks. Classifiers algorithms with diverse learning paradigms: k-Neighborhood, Neural Networks, Decision Trees and Naïves Bayes are used to patterns recognition of machines faults. Multi-classifier systems are used to improve classification errors. It inspected the algorithms homogeneous: Bagging and Boosting and heterogeneous: Vote, Stacking and Stacking C. Results present the effectiveness of constructed model to faults modeling, such as the possibility of using multi-classifiers algorithm on faults classification