997 resultados para Método multicritério de análise de decisão


Relevância:

40.00% 40.00%

Publicador:

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Propõe-se método novo e completo para análise de acetona em ar exalado envolvendo coleta com pré-concentração em água, derivatização química e determinação eletroquímica assistida por novo algoritmo de processamento de sinais. Na literatura recente a acetona expirada vem sendo avaliada como biomarcador para monitoramento não invasivo de quadros clínicos como diabetes e insuficiência cardíaca, daí a importância da proposta. Entre as aminas que reagem com acetona para formar iminas eletroativas, estudadas por polarografia em meados do século passado, a glicina apresentou melhor conjunto de características para a definição do método de determinação por voltametria de onda quadrada sem a necessidade de remoção de oxigênio (25 Hz, amplitude de 20 mV, incremento de 5 mV, eletrodo de gota de mercúrio). O meio reacional, composto de glicina (2 mol·L-1) em meio NaOH (1 mol·L-1), serviu também de eletrólito e o pico de redução da imina em -1,57 V vs. Ag|AgCl constituiu o sinal analítico. Para tratamento dos sinais, foi desenvolvido e avaliado um algoritmo inovador baseado em interpolação de linha base por ajuste de curvas de Bézier e ajuste de gaussiana ao pico. Essa combinação permitiu reconhecimento e quantificação de picos relativamente baixos e largos sobre linha com curvatura acentuada e ruído, situação em que métodos convencionais falham e curvas do tipo spline se mostraram menos apropriadas. A implementação do algoritmo (disponível em http://github.com/batistagl/chemapps) foi realizada utilizando programa open source de álgebra matricial integrado diretamente com software de controle do potenciostato. Para demonstrar a generalidade da extensão dos recursos nativos do equipamento mediante integração com programação externa em linguagem Octave (open source), implementou-se a técnica da cronocoulometria tridimensional, com visualização de resultados já tratados em projeções de malha de perspectiva 3D sob qualquer ângulo. A determinação eletroquímica de acetona em fase aquosa, assistida pelo algoritmo baseado em curvas de Bézier, é rápida e automática, tem limite de detecção de 3,5·10-6 mol·L-1 (0,2 mg·L-1) e faixa linear que atende aos requisitos da análise em ar exalado. O acetaldeído, comumente presente em ar exalado, em especial, após consumo de bebidas alcoólicas, dá origem a pico voltamétrico em -1,40 V, contornando interferência que prejudica vários outros métodos publicados na literatura e abrindo possibilidade de determinação simultânea. Resultados obtidos com amostras reais são concordantes com os obtidos por método espectrofotométrico, em uso rotineiro desde o seu aperfeiçoamento na dissertação de mestrado do autor desta tese. Em relação à dissertação, também se otimizou a geometria do dispositivo de coleta, de modo a concentrar a acetona num volume menor de água gelada e prover maior conforto ao paciente. O método completo apresentado, englobando o dispositivo de amostragem aperfeiçoado e o novo e efetivo algoritmo para tratamento automático de sinais voltamétricos, está pronto para ser aplicado. Evolução para um analisador portátil depende de melhorias no limite de detecção e facilidade de obtenção eletrodos sólidos (impressos) com filme de mercúrio, vez que eletrodos de bismuto ou diamante dopado com boro, entre outros, não apresentaram resposta.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

As primeiras agências reguladoras foram criadas a partir da segunda metade dos anos 1990, e a mais recente delas, em 2005. Com as agências surgiram também os atores privados regulados, os usuários e consumidores, e uma nova forma de interação entre os Poderes Executivo, Legislativo e Judiciário. Esses atores participam e dão forma ao processo de aprendizagem institucional das agências. Passado o período de criação e após quase duas décadas de existência, é necessária uma visão crítica sobre as agências. Propõe-se, então, um método de avaliação regulatória a partir de três variáveis que serão decompostas em diversas subvariáveis (quesitos a serem respondidos objetivamente). A primeira variável, institucionalização, mede as regras aplicáveis à própria agência: características dos mandatos dos dirigentes, autonomia decisória, autonomia financeira e de gestão de pessoal. A segunda, procedimentalização, ocupa-se do processo de tomada de decisão da agência e de sua transparência. Ambas as variáveis procuram medir as agências do ponto de vista formal, a partir de normas aplicáveis (leis, decretos, resoluções, portarias etc.), e pela prática regulatória, com base nos fatos ocorridos demonstrados por meio de documentos oficiais (decretos de nomeação, decisões, relatórios de atividade das próprias agências etc.). A última variável, judicialização, aponta as várias vezes em que a decisão administrativa muda de status e o nível de confirmação dessas decisões pelo Poder Judiciário. O modelo teórico de avaliação das agências ora apresentado é aplicado e testado em três setores que são submetidos à regulação econômica e contam com forte presença de atores sociais e empresa estatal federal. Assim, as agências analisadas foram: Agência Nacional de Energia Elétrica ANEEL, Agência Nacional de Telecomunicações ANATEL e Agência Nacional de Aviação Civil ANAC. Em termos gerais, não é possível garantir a existência de um isoformismo entre essas agências, nem mesmo entre agências criadas em momentos diferentes e por presidentes distintos. Também não foi possível demonstrar que a interferência política seja uma marca de um único governo. A ANATEL, a melhor avaliada das três agências, destaca-se pelo rigor de suas normas que seu processo decisório reflete. A ANEEL e a ANAC tiveram uma avaliação mediana já que apresentaram avaliação sofrível quanto ao processo, mas mostraram ter instituições (regras) um pouco melhores.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho propõe uma extensão do método de propagação de feixe (BPM - Beam Propagation Method) para a análise de guias de ondas ópticos e acopladores baseados em materiais não-lineares do tipo Kerr. Este método se destina à investigação de estruturas onde a utilização da equação escalar de Helmholtz (EEH) em seu limite paraxial não mais se aplica. Os métodos desenvolvidos para este fim são denominados na literatura como métodos de propagação de feixe de ângulo largo. O formalismo aqui desenvolvido é baseado na técnica das diferenças finitas e nos esquemas de Crank-Nicholson (CN) e Douglas generalizado (GD). Estes esquemas apresentam como característica o fato de apresentarem um erro de truncamento em relação ao passo de discretização transversal, Δx, proporcional a O(Δx2) para o primeiro e O(Δx4). A convergência do método em ambos esquemas é otimizada pela utilização de um algoritmo interativo para a correção do campo no meio não-linear. O formalismo de ângulo largo é obtido pela expansão da EEH para os esquemas CN e GD em termos de polinômios aproximantes de Padé de ordem (1,0) e (1,1) para CN e GD, e (2,2) e (3,3) para CN. Os aproximantes de ordem superior a (1,1) apresentam sérios problemas de estabilidade. Este problema é eliminado pela rotação dos aproximantes no plano complexo. Duas condições de contorno nos extremos da janela computacional são também investigadas: 1) (TBC - Transparent Boundary Condition) e 2) condição de contorno absorvente (TAB - Transparent Absorbing Boundary). Estas condições de contorno possuem a facilidade de evitar que reflexões indesejáveis sejam transmitidas para dentro da janela computacional. Um estudo comparativo da influência destas condições de contorno na solução de guias de ondas ópticos não-lineares é também abordada neste trabalho.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O cadastramento de peritos cíveis junto ao Poder Judiciário atualmente não é feito eletronicamente e o rol de profissionais não é divulgado pela internet, sendo necessário que os profissionais se cadastrem pessoalmente em cada fórum. Também não existe atualmente uma avaliação dos trabalhos periciais realizados, o que faz com que o resultado dos trabalhos periciais, ou seja, o laudo pericial tenha muitos defeitos e acabe por não ter a qualidade necessária para auxiliar o juiz em sua tomada de decisão. Após a realização de uma pesquisa com peritos sobre suas impressões quanto à forma de cadastramento atualmente utilizada, aplicou-se o método Analytic Hierarchy Process (AHP) para auxiliar na identificação do perfil dos profissionais que desejam modificações no sistema. Foram então feitas observações e sugestões para que este modelo atualmente utilizado seja modificado e possa assim atender aos princípios constitucionais da publicidade, eficiência e finalidade.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Um dos grandes desafios enfrentados pelos fabricantes de turbinas hidráulicas é prevenir o aparecimento de vibrações induzidas pelo escoamento nas travessas do pré-distribuidor e pás do rotor. Considerando apenas as travessas, e atribuídos a tais vibrações, foram relatados 28 casos de trincas ou ruídos anormais nas últimas décadas, que acarretaram enormes prejuízos associados a reparos, atrasos e perda de geração. O estado da arte na prevenção destes problemas baseia-se na utilização de sofisticados, e caros, programas comerciais de dinâmica dos fluidos computacional para o cálculo transiente do fenômeno. Este trabalho faz uma ampla revisão bibliográfica e levantamento de eventos de trincas ou ruídos ocorridos em travessas nos últimos 50 anos. Propõe, então, um enfoque alternativo, baseado exclusivamente em ferramentas de código aberto. A partir de hipóteses simplificadoras devidamente justificadas, o problema é formulado matematicamente de forma bidimensional, no plano da seção transversal da travessa, levando em conta a interação fluido-estrutura. Nesta estratégia, as equações de Navier-Stokes são resolvidas pelo método dos elementos finitos por meio da biblioteca gratuita oomph-lib. Um código especial em C++ é desenvolvido para o problema de interação fluido-estrutura, no qual o fenômeno de turbulência é levado em consideração por meio de um algoritmo baseado no modelo de Baldwin-Lomax. O método proposto é validado por meio da comparação dos resultados obtidos com referências e medições disponíveis na literatura, que tratam de problemas de barras retangulares suportadas elasticamente. O trabalho finaliza com a aplicação do método a um estudo de caso envolvendo uma travessa particular.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A pesquisa analisa e epistemologia ontológica de Paul Tillich. Considerando a influência de F. W. J. Schelling pretende-se destacar o lugar de certas premissas ontológicas que fundamentaram o pensamento de Tillich, principalmente o Princípio de Identidade , como um dos princípios epistemológicos chave. Partindo do pressuposto de que sua ontologia depende do Princípio de identidade a fim de que possa relacionar essência e existência, destaca-se a identidade substancial entre teologia e filosofia, permitindo melhor compreensão da relação entre ontologia e teologia, caracterizando de forma geral tanto a noção teológicofilosófica da experiência de finitude - choque ontológico como sua relação com as importantes noções de Deus como o Ser-em-si, e ultimate concern enquanto categoria ontológico-teológica. A seguir, críticas voltadas para sua construtividade ontológica serão destacadas e analisadas em termos de seus pressupostos e em seu poder de alcance. Neste âmbito crítico, considerar-se-á breve comparação entre a tentativa do sistema ontológicoteológico de Tillich e os sistemas de Kant e Hegel, com o objetivo de apresentar paralelos críticos entre a postura de tais sistemas no campo epistemológico e ontológico, e suas influências sobre a teologia. Ao final, pretende-se entender as implicações de sua ontologiateológica tanto para a forma metodológica de correlação entre situação e resposta, como na relação com outros sistemas teológicos, que possibilitaram ou não, mediações entre cultura e teologia. Neste segmento, notar-se-á como uma das implicações da ontologia-teológica de Tillich, o imprescindível retorno do saber teológico entre os demais saberes delineadores da realidade; considerando-se certas possibilidades críticas a partir de seu pensamento com respeito ao uso da razão instrumental, ética e espiritualidade.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This work presents an application of a hybrid Fuzzy-ELECTRE-TOPSIS multicriteria approach for a Cloud Computing Service selection problem. The research was exploratory, using a case of study based on the actual requirements of professionals in the field of Cloud Computing. The results were obtained by conducting an experiment aligned with a Case of Study using the distinct profile of three decision makers, for that, we used the Fuzzy-TOPSIS and Fuzzy-ELECTRE-TOPSIS methods to obtain the results and compare them. The solution includes the Fuzzy sets theory, in a way it could support inaccurate or subjective information, thus facilitating the interpretation of the decision maker judgment in the decision-making process. The results show that both methods were able to rank the alternatives from the problem as expected, but the Fuzzy-ELECTRE-TOPSIS method was able to attenuate the compensatory character existing in the Fuzzy-TOPSIS method, resulting in a different alternative ranking. The attenuation of the compensatory character stood out in a positive way at ranking the alternatives, because it prioritized more balanced alternatives than the Fuzzy-TOPSIS method, a factor that has been proven as important at the validation of the Case of Study, since for the composition of a mix of services, balanced alternatives form a more consistent mix when working with restrictions.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The classifier support vector machine is used in several problems in various areas of knowledge. Basically the method used in this classier is to end the hyperplane that maximizes the distance between the groups, to increase the generalization of the classifier. In this work, we treated some problems of binary classification of data obtained by electroencephalography (EEG) and electromyography (EMG) using Support Vector Machine with some complementary techniques, such as: Principal Component Analysis to identify the active regions of the brain, the periodogram method which is obtained by Fourier analysis to help discriminate between groups and Simple Moving Average to eliminate some of the existing noise in the data. It was developed two functions in the software R, for the realization of training tasks and classification. Also, it was proposed two weights systems and a summarized measure to help on deciding in classification of groups. The application of these techniques, weights and the summarized measure in the classier, showed quite satisfactory results, where the best results were an average rate of 95.31% to visual stimuli data, 100% of correct classification for epilepsy data and rates of 91.22% and 96.89% to object motion data for two subjects.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The discussions wherein develop proposals for university reform in Brazil include, among other things, the conception of the university titled "New University", whose structural origin comes from the bill of higher education reform and unification of the foundations of education European upper (Bologna process). At its core, the Bologna process has imposed a series of transformations, among which, the promotion of mobility, as a stimulus to interinstitutional cooperation to enable an better and bigger qualification of the students. Nevertheless, what we see is that this point is one of the main points made flawed by Brazilian institutions that have adopted this model of higher education. An example is the Bachelor of Science and Technology - BC&T, Federal University of Rio Grande do Norte - UFRN, where there are problems of the internal order, represented by the problem of the reusing of the disciplines, such also of external order, in cases of transfers interinstitutional. Because of this, and knowing that this is a typical problem in which multiple criteria are involved, the aim of this study is to propose a multicriteria model for selection of interciclo of the BC&T of the UFRN which addresses the issue of mobility. For this, this study was of exploratory and study case nature, use as tools of data collection, the bibliographic and documentary research, as well as semi-structured interviews. For the elaboration of the model, were used the five phases most commonly used in the modeling of problems in operational research in a sample of 91 students of BC&T. As a result, we obtained a model that addresses the issue of internal and external mobility of the school and that, moreover, was also more robust and fair than the current model of BC&T and also what is used in other courses of the UFRN, taking into consideration the expected results by the decision makers

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Reinforced concrete creep is a phenomenon of great importance. Despite being appointed as the main cause of several pathologies, its effects are yet considered in a simplified way by the structural designers. In addition to studying the phenomenon in reinforced concrete structures and its current account used in the structural analysis, this paper compares creep strains at simply supported reinforced concrete beams in analytical and in experimental forms with the finite element method (FEM) simulation results. The strains and deflections obtained through the analytical form were calculated with the Brazilian code NBR 6118 (2014) recommendations and the simplified method from CEB-FIP 90 and the experimental results were extracted from tests available in the literature. Finite element simulations are performed using ANSYS Workbench software, using its 3D SOLID 186 elements and the structure symmetry. Analyzes of convergence using 2D PLANE 183 elements are held as well. At the end, it is concluded that FEM analyses are quantitative and qualitative efficient for the estimation of this non-linearity and that the method utilized to obtain the creep coefficients values is sufficiently accurate.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho propõe um estudo de sinais cerebrais aplicados em sistemas BCI (Brain-Computer Interface - Interfaces Cérebro Computador), através do uso de Árvores de Decisão e da análise dessas árvores com base nas Neurociências. Para realizar o tratamento dos dados são necessárias 5 fases: aquisição de dados, pré-processamento, extração de características, classificação e validação. Neste trabalho, todas as fases são contempladas. Contudo, enfatiza-se as fases de classificação e de validação. Na classificação utiliza-se a técnica de Inteligência Artificial denominada Árvores de Decisão. Essa técnica é reconhecida na literatura como uma das formas mais simples e bem sucedidas de algoritmos de aprendizagem. Já a fase de validação é realizada nos estudos baseados na Neurociência, que é um conjunto das disciplinas que estudam o sistema nervoso, sua estrutura, seu desenvolvimento, funcionamento, evolução, relação com o comportamento e a mente, e também suas alterações. Os resultados obtidos neste trabalho são promissores, mesmo sendo iniciais, visto que podem melhor explicar, com a utilização de uma forma automática, alguns processos cerebrais.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The municipal management in any country of the globe requires planning and allocation of resources evenly. In Brazil, the Law of Budgetary Guidelines (LDO) guides municipal managers toward that balance. This research develops a model that seeks to find the balance of the allocation of public resources in Brazilian municipalities, considering the LDO as a parameter. For this using statistical techniques and multicriteria analysis as a first step in order to define allocation strategies, based on the technical aspects arising from the municipal manager. In a second step, presented in linear programming based optimization where the objective function is derived from the preference of the results of the manager and his staff. The statistical representation is presented to support multicriteria development in the definition of replacement rates through time series. The multicriteria analysis was structured by defining the criteria, alternatives and the application of UTASTAR methods to calculate replacement rates. After these initial settings, an application of linear programming was developed to find the optimal allocation of enforcement resources of the municipal budget. Data from the budget of a municipality in southwestern Paraná were studied in the application of the model and analysis of results.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O livro organizado por Kira Tarapanoff nos apresenta a temática inteligência organizacional e competitiva no contexto da Web 2.0., a partir de quatro distintos enfoques: I. Web 2.0: novas oportunidades para a atividade de inteligência e Big Data; II. Novas arquiteturas informacionais; III. Desenvolvimento de estratégias por meio da Web 2.0; IV. Metodologias. O livro reúne nove capítulos elaborados por quinze autores brasileiros e um finlandês, este último traduzido para o português, alinhados ao tema principal do livro.