326 resultados para INFERÊNCIA
Resumo:
Os sistemas elétricos de potência modernos apresentam inúmeros desafios em sua operação. Nos sistemas de distribuição de energia elétrica, devido à grande ramificação, presença de extensos ramais monofásicos, à dinâmica das cargas e demais particularidades inerentes, a localização de faltas representa um dos maiores desafios. Das barreiras encontradas, a influência da impedância de falta é uma das maiores, afetando significativamente a aplicação dos métodos tradicionais na localização, visto que a magnitude das correntes de falta é similar à da corrente de carga. Neste sentido, esta tese objetivou desenvolver um sistema inteligente para localização de faltas de alta impedância, o qual foi embasado na aplicação da técnica de decomposição por componentes ortogonais no pré-processamento das variáveis e inferência fuzzy para interpretar as não-linearidades do Sistemas de Distribuição com presença de Geração Distribuída. Os dados para treinamento do sistema inteligente foram obtidos a partir de simulações computacionais de um alimentador real, considerando uma modelagem não-linear da falta de alta impedância. O sistema fuzzy resultante foi capaz de estimar as distâncias de falta com um erro absoluto médio inferior a 500 m e um erro absoluto máximo da ordem de 1,5 km, em um alimentador com cerca de 18 km de extensão. Tais resultados equivalem a um grau de exatidão, para a maior parte das ocorrências, dentro do intervalo de ±10%.
Resumo:
A eficiência e a racionalidade energética da iluminação pública têm relevante importância no sistema elétrico, porque contribui para diminuir a necessidade de investimentos na construção de novas fontes geradoras de energia elétrica e nos desperdícios energéticos. Apresenta-se como objetivo deste trabalho de pesquisa o desenvolvimento e aplicação do IDE (índice de desempenho energético), fundamentado no sistema de inferência nebulosa e indicadores de eficiência e racionalidade de uso da energia elétrica. A opção em utilizar a inferência nebulosa deve-se aos fatos de sua capacidade de reproduzir parte do raciocínio humano, e estabelecer relação entre a diversidade de indicadores envolvidos. Para a consecução do sistema de inferência nebulosa, foram definidas como variáveis de entrada: os indicadores de eficiência e racionalidade; o método de inferência foi baseado em regras produzidas por especialista em iluminação pública, e como saída um número real que caracteriza o IDE. Os indicadores de eficiência e racionalidade são divididos em duas classes: globais e específicos. Os indicadores globais são: FP (fator de potência), FC (fator de carga) e FD (fator de demanda). Os indicadores específicos são: FU (fator de utilização), ICA (consumo de energia por área iluminada), IE (intensidade energética) e IL (intensidade de iluminação natural). Para a aplicação deste trabalho, foi selecionada e caracterizada a iluminação pública da Cidade Universitária \"Armando de Salles Oliveira\" da Universidade de São Paulo. Sendo assim, o gestor do sistema de iluminação, a partir do índice desenvolvido neste trabalho, dispõe de condições para avaliar o uso da energia elétrica e, desta forma, elaborar e simular estratégias com o objetivo de economizá-la.
Resumo:
Este trabalho avalia a influência das emoções humanas expressas pela mímica da face na tomada de decisão de sistemas computacionais, com o objetivo de melhorar a experiência do usuário. Para isso, foram desenvolvidos três módulos: o primeiro trata-se de um sistema de computação assistiva - uma prancha de comunicação alternativa e ampliada em versão digital. O segundo módulo, aqui denominado Módulo Afetivo, trata-se de um sistema de computação afetiva que, por meio de Visão Computacional, capta a mímica da face do usuário e classifica seu estado emocional. Este segundo módulo foi implementado em duas etapas, as duas inspiradas no Sistema de Codificação de Ações Faciais (FACS), que identifica expressões faciais com base no sistema cognitivo humano. Na primeira etapa, o Módulo Afetivo realiza a inferência dos estados emocionais básicos: felicidade, surpresa, raiva, medo, tristeza, aversão e, ainda, o estado neutro. Segundo a maioria dos pesquisadores da área, as emoções básicas são inatas e universais, o que torna o módulo afetivo generalizável a qualquer população. Os testes realizados com o modelo proposto apresentaram resultados 10,9% acima dos resultados que usam metodologias semelhantes. Também foram realizadas análises de emoções espontâneas, e os resultados computacionais aproximam-se da taxa de acerto dos seres humanos. Na segunda etapa do desenvolvimento do Módulo Afetivo, o objetivo foi identificar expressões faciais que refletem a insatisfação ou a dificuldade de uma pessoa durante o uso de sistemas computacionais. Assim, o primeiro modelo do Módulo Afetivo foi ajustado para este fim. Por fim, foi desenvolvido um Módulo de Tomada de Decisão que recebe informações do Módulo Afetivo e faz intervenções no Sistema Computacional. Parâmetros como tamanho do ícone, arraste convertido em clique e velocidade de varredura são alterados em tempo real pelo Módulo de Tomada de Decisão no sistema computacional assistivo, de acordo com as informações geradas pelo Módulo Afetivo. Como o Módulo Afetivo não possui uma etapa de treinamento para inferência do estado emocional, foi proposto um algoritmo de face neutra para resolver o problema da inicialização com faces contendo emoções. Também foi proposto, neste trabalho, a divisão dos sinais faciais rápidos entre sinais de linha base (tique e outros ruídos na movimentação da face que não se tratam de sinais emocionais) e sinais emocionais. Os resultados dos Estudos de Caso realizados com os alunos da APAE de Presidente Prudente demonstraram que é possível melhorar a experiência do usuário, configurando um sistema computacional com informações emocionais expressas pela mímica da face.
Resumo:
Neste trabalho propomos o uso de um método Bayesiano para estimar o parâmetro de memória de um processo estocástico com memória longa quando sua função de verossimilhança é intratável ou não está disponível. Esta abordagem fornece uma aproximação para a distribuição a posteriori sobre a memória e outros parâmetros e é baseada numa aplicação simples do método conhecido como computação Bayesiana aproximada (ABC). Alguns estimadores populares para o parâmetro de memória serão revisados e comparados com esta abordagem. O emprego de nossa proposta viabiliza a solução de problemas complexos sob o ponto de vista Bayesiano e, embora aproximativa, possui um desempenho muito satisfatório quando comparada com métodos clássicos.
Resumo:
Estudiem en aquest article els primers passos en l'evolució semàntica i en la gramaticalització del verb "jaquir". Aquest germanisme pertany a un estrat lèxic del català que va començar a fer-se menys usual a la darreria del segle XV, desplaçat per altres sinònims, en aquest cas lleixar-deixar. La recerca es fonamenta en un corpus de documentació en llatí i en català dels segles XI i XII. L'objectiu és descriure la gènesi dels significats que ja apareixen ben establits durant el període literari. Seguim un enfocament metodològic d'orientació cognitivista (estudi de la subjectivació i de la inferència com a mecanismes del canvi semàntic).
Resumo:
L’estudi de la neologia és indestriable de l’estudi del canvi lingüístic i, doncs, de la diacronia. Ens proposem ací descriure el procés de canvi semàntic que va experimentar el verb esmar, forma patrimonial del llatí *adaestimare, paral·lela del cultisme estimar. Aquesta recerca es fonamenta en l’aprofitament dels corpus textuals i altres materials despullats manualment. Sobre aquests materials, s’ha assajat l’anàlisi de la subjectivació i de les inferències que proposa la teoria de la inferència invitada del canvi semàntic (= TIICS).
Resumo:
Tese de mestrado integrado em Engenharia Biomédica e Biofísica, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2016
Resumo:
O objectivo do projecto de mestrado é fazer a análise comparativa entre as metodologias de manutenção recomendadas pelo fabricante de uma marca de tractores agrícolas e as práticas dos proprietários destes equipamentos. O estudo foca-se em seis tractores agrícolas da marca New Holland, cujos dados foram disponibilizados pela empresa Agro Mondego com sede em Alqueidão-Figueira da Foz. Os tractores em causa, embora tendo potências diferentes, a sua utilização nos trabalhos agrícola é similar, bem como os procedimentos e intervalos de manutenção recomendados pelo fabricante. Os equipamentos em apreço, embora constituindo uma pequena amostra, a partir dos dados das suas intervenções já permitem fazer alguma análise estatística conducente a tirar as ilações possíveis sobre as práticas de manutenção e eventuais alterações a efectuar no futuro. As horas de funcionamento dos tractores a que são efectuadas as intervenções, registadas nos seus conta-horas, e que constam nas folhas de obra (Ordens de Trabalho) de cada um destes, bem como os procedimentos, recursos utilizados e custos, constituem os elementos base a partir dos quais é efectuado o estudo. A análise estatística dos dados atrás referidos, bem como o estudo dos desvios, em termos de custos comparativos entre os expectáveis resultantes das recomendações dos fabricantes e os efectivamente pagos, permitem apoiar a decisão sobre eventuais alterações nas metodologias de manutenção a efectuar. O presente projecto tem o potencial de permitir extrapolar ilações para equipamentos similares de outros fabricantes e, eventualmente, de permitir fazer recomendações sobre as melhores práticas de manutenção a levar a efeito no mercado nacional.
Resumo:
O crescimento económico de um país depende dos fundos disponíveis, quer para o financiamento da formação de capital quer para a sua reposição. Fundos obtidos pelas empresas e organismos públicos através de diversas formas, entre as quais, se destaca a emissão de valores mobiliários. Os aforradores, detentores de recursos, ao comprarem valores mobiliários, aliam uma alta rentabilidade a uma elevada liquidez na remuneração dos seus investimentos. As bolsas de valores são o meio onde as empresas, os organismos públicos e os aforradores, têm a possibilidade de verem esses interesses conciliados de uma maneira eficiente, eficaz e transparente, garantindo assim, uma maior liquidez aos títulos financeiros transaccionados em bolsa de valores. As empresas possuem várias alternativas de financiamento, o mercado de capitais é considerado pelos gestores, a fonte onde o rendimento ou o retorno obtido pode ser maior, perante a contrapartida de se incorrer um maior risco. Este mercado surge como alternativa aos empréstimos bancários, as empresas podem, dessa forma, adquirir financiamento de terceiros, os quais se tornarão accionistas dessa empresa. Podem emitir novas acções no mercado accionista de forma a atrair investidores externos que garantam a sustentabilidade do negócio. As acções possuem diversas caracteristicas e modalidades e fazem com que o capital da empresa seja partilhado por todos os seus accionistas, tendo em conta a proporção por eles adquirida individualmente. Esta dissertação investiga a dinâmica de compra e de venda das acções no mercado bolsista, os factores que determinam o seu preço, assim como os modelos que permitem a avaliação das mesmas e a inferência da taxa de retorno esperada por um investidor. A avaliação das acções é o tema de maior importância para esta análise, mais concretamente, a determinação e previsão do preço, e não apenas o preço propriamente dito, pois este é facultado diáriamente por vários jornais e também na internet. Perante o estudo da determinação de preços de uma acção num horizonte temporal, um investidor pode inferir se as suas acções estão a ser avaliadas sob um preço justo, e mais importante, pode apurar a sua previsão consoante dados e análises de factores. Outro ponto importante abordado nesta investigação tem que ver com a possibilidade das empresas em conhecer o modo como o mercado faz a sua avaliação a fim de tomar decisões certas acerca do orçamento de capital. Apenas se deve julgar a atractividade de um negócio se se souber como são avaliadas as acções. Nos mercados financeiros existe a tendência, por parte dos agentes económicos, de relacionarem o preço com o valor dos títulos financeiros. As decisões para a transacção de títulos financeiros são tomadas segundo a sua comparação. O preço ou cotação de mercado é formado em mercados organizados, pelo que depende das regras de funcionamento do mercado, tais como, os mínimos para transacção ou a variação máxima e mínima permitida. Estão associados a uma transação dependendo assim da procura e oferta dos títulos e incorporam ainda os custos de transacção. A ideia subjacente ao modelo Capital Asset Pricing Model é a de que, os investidores esperam uma recompensa pela preocupação dos investimentos realizados com risco ou com um retorno incerto. Quando se investe em títulos com risco, espera-se um retorno extra (comparando com os Bilhetes do Tesouro sem risco, recebe-se apenas os juros) ou um prémio de risco pela preocupação. A incerteza no retorno dos títulos provem de duas fontes, nomeadamente os factores macroeconómicos, pode-se chamar também, um factor comum, e os factores específicos inerentes à actividade da empresa. O facto comum é assumido como tendo um valor esperado zero pois é medido por nova informação respeitante à macroeconomia. O modelo assume duas ideias fundamentais: em primeiro lugar, existe consenso em relação ao facto dos investidores exigirem um retorno adicional por correrem riscos, e em segundo lugar, os investidores preocupam-se geralmente com o risco de mercado geral que não pode ser eliminado através de diversificação da carteira de investimentos. Este modelo pode ser bastante eficaz pois apenas considera um único factor para o cálculo da rendibilidade esperada de um título financeiro, que é a volatilidade do mercado no geral, a qual pode ser estudada. Ao contrário dos modelos multifactoriais, que incluem vários factores macroeconómicos tornando o objectivo da análise pouco intuitivo e complexo. Existem vários modelos para avaliação dos títulos de uma empresa cotada em bolsa de valores, geralmente estes modelos utilizam taxas de juro sem risco para equilibrar carteiras diversificadas, embora seja necessário analisar o retorno de um título ou carteira sob a influência de diversas variáveis macroeconómicas. Por exemplo outro modelo aplicado neste dissertação é o modelo Arbitrage Pricing Theory que perante o seu resultado comparado com o primeiro modelo, se pode definir qual dos modelos tem uma aplicação mais conclusiva para o mercado accionista português. Este modelo de avaliação por arbitragem estabelece uma relação linear entre o excedente do retorno esperado dos activos face à taxa de juro certa (sem risco) e um conjunto de variáveis. Pressupõe que a taxa de rentabilidade de um activo com risco é uma função linear de um conjunto de factores comuns a todos os activos financeiros. Tem como ideia subjacente, a constituição de uma carteira de não arbitragem, ou seja, uma carteira que não envolve qualquer risco (sistemático ou específico) e não requer investimento inicial pois a venda de certos activos gera fundos para adquirir novos. A metodologia implementada abrange o mercado financeiro e modelos possíveis para esta questão. Para responder às hipóteses de investigação efectuou-se a aplicação efectiva do modelo CAPM e do modelo APT, com a captação de dados oficiais em instituições financeiras e na Bolsa de Valores NYSE Euronext Lisbon. Considerou-se um período temporal num passado próximo de forma a poder obter-se conclusões concretas e indicadores precisos para a sua implementação e desenvolvimento no futuro. A principal conclusão desta dissertação relaciona-se com o facto de não se verificar a total validação da aplicação dos modelos, contudo o modelo CAPM é mais conclusivo do que o modelo APT, pois pode-se afirmar que tem aplicação prática em empresas que se conheça à priori a sua capitalização bolsista e beta anual. Por exemplo, aos títulos financeiros de empresas com capitalizações bolsistas inferiores a cinco mil milhões de euros e com um beta anual inferior a 1 poderá aplicar-se o modelo, assim como a títulos de empresas com capitalizações bolsistas superiores a dez mil milhões de euros e beta anual superior 1,5. Os sectores da Banca e do Papel também poderão ter potencial de aplicação do modelo.
Resumo:
Com o advento do século XX, o avanço tecnológico e o desenvolvimento nas mais diversas áreas do conhecimento acarretaram algumas mudanças na concepção do estudo da ciência. No paradigma vigente, existe na ciência política um constante comprometimento com a questão da inferência causal. O método experimental dispõe de capacidade indubitável para alegar relações de causalidade entre as variáveis de interesse. Apresenta-se, portanto, como um método pragmático para o aperfeiçoamento de teorias. Examinaremos, no presente estudo, as razões que têm suscitado o interesse crescente dos pesquisadores pela metodologia.
Resumo:
The detection and diagnosis of faults, ie., find out how , where and why failures occur is an important area of study since man came to be replaced by machines. However, no technique studied to date can solve definitively the problem. Differences in dynamic systems, whether linear, nonlinear, variant or invariant in time, with physical or analytical redundancy, hamper research in order to obtain a unique solution . In this paper, a technique for fault detection and diagnosis (FDD) will be presented in dynamic systems using state observers in conjunction with other tools in order to create a hybrid FDD. A modified state observer is used to create a residue that allows also the detection and diagnosis of faults. A bank of faults signatures will be created using statistical tools and finally an approach using mean squared error ( MSE ) will assist in the study of the behavior of fault diagnosis even in the presence of noise . This methodology is then applied to an educational plant with coupled tanks and other with industrial instrumentation to validate the system.
Resumo:
The National Reading Incentive Program (PROLER) is a national initiative to promote and encourage reading throughout the country, linked to the National Library Foundation (FBN) of the Ministry of Culture (MinC). This research aims to assess the PROLER’s implementation process in the state of Rio Grande do Norte, from the actions of their local committee. The framework is based on contextualize the policies that seek to encourage the book and reading, as well as the processes of implementation and evaluation of public policies. The research is understood as a qualitative descriptive-exploratory study, comprising a single case study. Makes use of semi-structured interview as a tool for data collection, which was attended by 8 members of Potiguar Committee as respondents. The techniques of bibliographical and documentary analysis were used for the analysis and discussion of data obtained from surveys and documents on PROLER; as to the content of the interviews, the technique used was the analysis of conversations. As for the results, the existence of four barriers to program implementation in the state that are worth mentioning is observed: a) the political-administrative discontinuity; b) the limited resources and few partnerships; c) the management of school libraries and absence from the post of librarian in the state and; d) the absence of a process or assessment tool able to evaluate the results or the impacts of actions taken by the Potiguar Committee. It was noticed that these limiting four come PROLER making the implementation of the Rio Grande do Norte a process that, although complying with the national regulations of teacher training and follow school libraries and their needs, not flawed to develop assessments that can measure program impacts, making the feedback process of ineffective policy. Another observation of this study is seen in the fact that the Committee did not get enough to supply their shares resources, as well as not being able to articulate new partnerships, thus contributing negatively to the scope of the program form and, consequently, for the effectiveness of their actions. Has even mentioning the fact that the Committee do nothing regarding the mismanagement of the libraries that are in their care, ie, do not use the power of coercion as guaranteed by the National Policy on Reading and federal laws that treat the school library, and is therefore ineffective in relation to compliance with the program guidelines
Resumo:
The plant metabolism consists of a complex network of physical and chemical events resulting in photosynthesis, respiration, synthesis and degradation of organic compounds. This is only possible due to the different kinds of responses to many environmental variations that a plant could be subject through evolution, leading also to conquering new surroundings. The glyoxylate cycle is a metabolic pathway found in glyoxysomes plant, which has unique role in the seedling establishment. Considered as a variation of the citric acid cycle, it uses an acetyl coenzyme A molecule, derived from lipids beta-oxidation to synthesize compounds which are used in carbohydrate synthesis. The Malate synthase (MLS) and Isocitrate lyase (ICL) enzyme of this cycle are unique and essential in regulating the biosynthesis of carbohydrates. Because of the absence of decarboxylation steps as rate-limiting steps, detailed studies of molecular phylogeny and evolution of these proteins enables the elucidation of the effects of this route presence in the evolutionary processes involved in their distribution across the genome from different plant species. Therefore, the aim of this study was to establish a relationship between the molecular evolution of the characteristics of enzymes from the glyoxylate cycle (isocitrate lyase and malate synthase) and their molecular phylogeny, among green plants (Viridiplantae). For this, amino acid and nucleotide sequences were used, from online repositories as UniProt and Genbank. Sequences were aligned and then subjected to an analysis of the best-fit substitution models. The phylogeny was rebuilt by distance methods (neighbor-joining) and discrete methods (maximum likelihood, maximum parsimony and Bayesian analysis). The identification of structural patterns in the evolution of the enzymes was made through homology modeling and structure prediction from protein sequences. Based on comparative analyzes of in silico models and from the results of phylogenetic inferences, both enzymes show significant structure conservation and their topologies in agreement with two processes of selection and specialization of the genes. Thus, confirming the relevance of new studies to elucidate the plant metabolism from an evolutionary perspective
Resumo:
The study aimed to analyze the nursing diagnoses of the nutrition domain from NANDA International in patients undergoing hemodialysis. This is a transversal study conducted in a university hospital in northeastern Brazil, with 50 hemodialysis patients. The data collection instrument was an interview form and a physical examination, in digital format, applied between the months of December 2013 to May 2014. Data analysis was divided into two stages. In the first, defining characteristics, related factors and risk factors were judged as to their presence by the researcher, according to the data collected. In the second stage, based on data from the first, diagnostic inference by experts was held. The results were organized in tables and analyzed using descriptive and inferential statistics for the diagnoses that showed higher frequencies than 50%. The project was approved by the Ethics Committee responsible for the research institution (protocol number 392 535), with Certificate Presentation to Ethics Assessment 18710613.4.00005537 number. The results indicate a median of 7 (± 1.51) nursing diagnoses of the nutrition domain per patient. Six diagnoses with greater frequency than 50% were identified, namely: Risk for electrolyte imbalance, Risk for unstable blood glucose level, Excess fluid volume, Readiness for enhanced fluid balance, Readiness for enhanced nutrition and Risk for deficient fluid volume. The defining characteristics, related and risk factors presented an average of 34.78 (± 6.86), 15.50 (± 3.40) and a median of 4 (± 1.93), respectively, and 11 of these components had statistically significant association with the respective diagnoses. Were identified associations between adventitious breath sounds, edema and pulmonary congestion with the diagnosis Excess fluid volume; Expressed desire to increase fluid balance with the nursing diagnosis Readiness for enhanced fluid balance; It feeds regularly, Attitude to food consistent with the health goals, Consume adequate food, expresses knowledge about healthy food choices, expresses desire to improve nutrition, expresses knowledge about liquid healthier choices and following appropriate standard supply with diagnosis Readiness for enhanced nutrition. It is concluded that the diagnosis of the nutrition domain related to electrolyte problems are prevalent in customer submitted to hemodialysis. The identification of these diagnoses contributes to the development of a plan of care targeted to the needs of these clients, providing better quality of life and advance in the practice of care
Resumo:
Automatic detection of blood components is an important topic in the field of hematology. The segmentation is an important stage because it allows components to be grouped into common areas and processed separately and leukocyte differential classification enables them to be analyzed separately. With the auto-segmentation and differential classification, this work is contributing to the analysis process of blood components by providing tools that reduce the manual labor and increasing its accuracy and efficiency. Using techniques of digital image processing associated with a generic and automatic fuzzy approach, this work proposes two Fuzzy Inference Systems, defined as I and II, for autosegmentation of blood components and leukocyte differential classification, respectively, in microscopic images smears. Using the Fuzzy Inference System I, the proposed technique performs the segmentation of the image in four regions: the leukocyte’s nucleus and cytoplasm, erythrocyte and plasma area and using the Fuzzy Inference System II and the segmented leukocyte (nucleus and cytoplasm) classify them differentially in five types: basophils, eosinophils, lymphocytes, monocytes and neutrophils. Were used for testing 530 images containing microscopic samples of blood smears with different methods. The images were processed and its accuracy indices and Gold Standards were calculated and compared with the manual results and other results found at literature for the same problems. Regarding segmentation, a technique developed showed percentages of accuracy of 97.31% for leukocytes, 95.39% to erythrocytes and 95.06% for blood plasma. As for the differential classification, the percentage varied between 92.98% and 98.39% for the different leukocyte types. In addition to promoting auto-segmentation and differential classification, the proposed technique also contributes to the definition of new descriptors and the construction of an image database using various processes hematological staining