971 resultados para A salvagem perdiçao: erro e ruína na Ilíada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Presente dissertação apresenta uma aplicação de Inteligência Computacional na área de Geotecnia, com a utilização da Técnica de Neuro-Fuzzy para indicar a suscetibilidade de escorregamento de taludes no município do Rio de Janeiro, a partir de inspeção visual. Neste trabalho, a suscetibilidade corresponde à possibilidade de ocorrência de escorregamento sem considerar os danos relacionados ao evento. Adotou-se como variável de saída a Previsão de Escorregamento (PE) com três adjetivos que correspondem a Suscetibilidades Alta, Média e Baixa. A metodologia utilizada consistiu em, inicialmente, montar um banco de dados com informações preliminares de análise de estabilidade, com a indicação dos condicionantes de escorregamento relacionados à geomorfologia, pluviosidade, capacidade de drenagem, vegetação e ocupação com seus respectivos graus de suscetibilidades de escorregamento obtidos em um conjunto de Laudos de Vistoria da Geo Rio. O banco de dados foi aplicado em um algoritmo de Neuro-Fuzzy. Diversos testes foram realizados com as alterações dos parâmetros do modelo Neuro-Fuzzy para uma combinação de fatores condicionantes de escorregamento e refinamento do banco de dados. Os testes apresentaram diminuição do erro fornecido pelo programa com o aumento de tipos de condicionantes utilizados no treinamento, o que permite inferir que o escorregamento ocorre por uma complexa relação entre diversos fatores condicionantes. O banco de dados utilizado nos testes apresenta descontinuidades nas relações entre os diversos condicionantes, ou seja, para uma mesma faixa de valores de Altura do talude, não é possível obter uma relação para todas as faixas de outro condicionante e, até mesmo, para todas as faixas da Previsão de Escorregamento. As PEs obtidas na validação do modelo tiveram seus valores próximos aos desejados somente nos conjuntos de variáveis utilizadas para o treinamento. O modelo não foi capaz de apresentar valores de suscetibilidades dentro da faixa de valores utilizados no treinamento para combinação de variáveis com pequenos ruídos, o que indica a necessidade de ampliação do banco de dados tanto quantitativamente quanto qualitativamente de modo a cobrir as descontinuidades apresentadas nas relações entre as variáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo apresentar uma estimativa preliminar do volume de recurso contingente não-convencionais de folhelhos oleígenos (oil shale) na Formação Tremembé através de métodos probabilísticos aplicados à informações compiladas de bibliografias existentes sobre a bacia. Como base para esta estimativa utilizou-se informações obtidas através de sísmica 2D, poços existentes na área e perfis geoquímicos. Através da interpretação dos mesmos foram gerados os valores de inputs para os parâmetros utilizados no cálculo, como: espessura econômica, densidade do minério e valor de Ensaio Fisher (Litros de óleo por tonelada de rocha). Para a análise foi construída uma planilha Excel no qual já descrito cada parâmetro do cálculo. Foi utilizado o software @Risk, da Palisade Inc., que é capaz de atribuir distribuições estatísticas a parâmetros utilizados no cálculo obtendo, a partir do método Monte Carlo, distribuições dos possíveis resultados. A metodologia apresentada se demonstra mais adequada ao caso em estudo que o método determinístico, devido a restrição e ausência da precisão dos dados o que aumentaria as incertezas e as chances de erro no cálculo do volume, podendo impossibilitar uma avaliação, no caso do segundo. A metodologia probabilística ao mesmo tempo em que permite uma avaliação preliminar na ausência de dados precisos, ela gera cenários probabilísticos de resultados, possibilitando a antecipação da tomada de decisões em um projeto, permitindo sua continuação ou abandono.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente obra é dedicada ao estudo dos novos mecanismos destinados a combater a morosidade do processo judicial, em especial a tutela de evidência. A pesquisa abrange a teoria da cognição, perpassando a função da verdade para o julgamento, analisando cada um dos graus de verossimilhaa e a cognição de questões de direito. Em seguida, examinam-se os efeitos do tempo sobre o processo, objeto da dromologia processual. Considerando a mora como um fator de risco, são abordadas soluções teóricas para o seu adequado equacionamento, quando em confronto com o risco de erro judiciário. Um dos instrumentos para a gestão desses riscos, sempre presentes no curso processual, é a análise econômica do direito. Com vistas à formação de um prognóstico a respeito das chances de sucesso da tutela de evidência no Brasil, são explorados institutos correlatos no Direito Comparado, suas semelhaas e diferenças, bem como, sempre que possível, dados empíricos sobre os resultados obtidos nos respectivos países. Por fim, procede-se a uma análise crítica dos dispositivos do anteprojeto do novo Código de Processo Civil que versam sobre a tutela de evidência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhaa. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho são utilizados a técnica baseada na propagação de ondas acústicas e o método de otimização estocástica Luus-Jaakola (LJ) para solucionar o problema inverso relacionado à identificação de danos em barras. São apresentados o algoritmo algébrico sequencial (AAS) e o algoritmo algébrico sequencial aperfeiçoado (AASA) que modelam o problema direto de propagação de ondas acústicas em uma barra. O AASA consiste nas modificações introduzidas no AAS. O uso do AASA resolve com vantagens o problema de identificação de danos com variações abruptas de impedância. Neste trabalho são obtidos, usando-se o AAS-LJ e o AASA-LJ, os resultados de identificação de cinco cenários de danos. Três deles com perfil suave de impedância acústica generalizada e os outros dois abruptos. Além disso, com o objetivo de simular sinais reais de um experimento, foram introduzidos variados níveis de ruído. Os resultados alcaados mostram que o uso do AASA-LJ na resolução de problemas de identificação de danos em barras é bastante promissor, superando o AAS-LJ para perfis abruptos de impedância.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper aims to investigate companies' environmental, social, governance (ESG), and financial implications of their commitment to the United Nations Global Compact (UNGC). The focus is placed on companies operating in the three countries with the highest number of UNGC participants: Spain, France, and Japan. The results clearly reveal that adoption of the UNGC often requires an organizational change that fosters stakeholder engagement, ultimately resulting in improvements in companies' ESG performance. Additionally, the results reveal that ESG performance has a significant impact on financial performance for companies that adopted the principles of the UNGC. These findings provide both non-financial and financial incentives to companies to commit to this voluntary corporate social responsibility (CSR) initiative, which will have important implications on companies' strategic management policies that aim to foster sustainable businesses and community development. Finally, the linkages between the UNGC-committed companies' ESG and financial performance may be influenced by geographical spread, mainly due to the appearance of differences in the institutional, societal, and cultural settings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir das dimensões dos indivíduos pode-se definir dimensionamentos adequados para os produtos e postos de trabalho, proporcionando seguraa e conforto aos usuários. Com o avanço da tecnologia de digitalização de imagens (escaneamento) 3D, é possível tirar algumas medidas de maneira mais rápida e com a redução da presença do entrevistado durante o processo. No entanto, faltam estudos que avaliem estas tecnologias no Brasil, sendo necessária a realização de uma comparação das tecnologias e das respectivas precisões para que seu uso em pesquisas. Com o objetivo de oferecer métodos comparativos para escolha dos marcadores e equipamentos a serem utilizados em uma pesquisa antropométrica tridimensional da população brasileira, no presente estudo estão comparadas duas tecnologias de escaneamento: o sistema a laser WBX da empresa norte americana Cyberware e o sistema MHT da empresa russa Artec Group. O método para avaliação da precisão dimensional dos dados advindos desses equipamentos de digitalização de imagens 3D teve cinco etapas: Estudo dos processos de escaneamento; Escaneamento dos marcadores de pontos anatômicos; Escaneamento utilizando um corpo de prova cilíndrico; Escaneamento de um manequim; Escaneamento de um voluntário que teve seus pontos anatômicos marcados para a retirada de medidas. Foi feita uma comparação entre as medidas retiradas manualmente, por meio de antropômetro e virtualmente, com o auxílio do software de modelagem tridimensional Rhinoceros. Em relação aos resultados obtidos na avaliação do manequim e do voluntário, concluiu-se que a magnitude do erro absoluto é semelhante para ambos os scanners, e permanece constante independentemente das dimensões sob análise. As principais diferenças são em relação às funcionalidades dos equipamentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta um novo modelo criado para a previsão do valor da tensão superficial de misturas de hidrocarbonetos. Pode ser utilizado na forma preditiva ou correlativa. Este modelo foi baseado no modelo preditivo para soluções ideais de HildebrandScott (1950) e no modelo correlativo de JouybanAcree (2004). Outras regras de mistura foram avaliadas e comparadas com o modelo proposto, incluindo abordagens clássicas como de Sprow e Prausnitz, parácoro e estados correspondentes. Foram avaliados os desempenhos dos modelos escolhidos na previsão e na correlação da tensão superficial de misturas de hidrocarbonetos em diferentes temperaturas que continham diferentes assimetrias na mistura, tanto em natureza química (e.g., parafínicos, naftênicos e aromáticos) quanto em tamanho de cadeia. No total foram empregados 773 dados experimentais. Dentre os modelos preditivos, o modelo proposto foi o de melhor desempenho. Para sistemas com comportamento próximo da idealidade, esse modelo apresentou desvios em relação aos dados experimentais compatíveis com o erro experimental. Todos os modelos correlativos estudados apresentaram desvios essencialmente da ordem do erro experimental. O modelo proposto é importante, pois é capaz de prever a tensão superficial de misturas binárias aproximadamente ideais de hidrocarbonetos com elevada acurácia, além de permitir a correlação eficiente dos dados de todas as misturas estudadas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O biodiesel tem sido amplamente utilizado como uma fonte de energia renovável, que contribui para a diminuição de demanda por diesel mineral. Portanto, existem várias propriedades que devem ser monitoradas, a fim de produzir e distribuir biodiesel com a qualidade exigida. Neste trabalho, as propriedades físicas do biodiesel, tais como massa específica, índice de refração e ponto de entupimento de filtro a frio foram medidas e associadas a espectrometria no infravermelho próximo (NIR) e espectrometria no infravermelho médio (Mid-IR) utilizando ferramentas quimiométricas. Os métodos de regressão por mínimos quadrados parciais (PLS), regressão de mínimos quadrados parciais por intervalos (iPLS), e regressão por máquinas de vetor de suporte (SVM) com seleção de variáveis por Algoritmo Genético (GA) foram utilizadas para modelar as propriedades mencionadas. As amostras de biodiesel foram sintetizadas a partir de diferentes fontes, tais como canola, girassol, milho e soja. Amostras adicionais de biodiesel foram adquiridas de um fornecedor da região sul do Brasil. Em primeiro lugar, o pré-processamento de correção de linha de base foi usado para normalizar os dados espectrais de NIR, seguidos de outros tipos de pré-processamentos que foram aplicados, tais como centralização dos dados na média, 1 derivada e variação de padrão normal. O melhor resultado para a previsão do ponto de entupimento de filtro a frio foi utilizando os espectros de Mid-IR e o método de regressão GA-SVM, com alto coeficiente de determinação da previsão, R2Pred=0,96 e baixo valor da Raiz Quadrada do Erro Médio Quadrático da previsão, RMSEP (C)= 0,6. Para o modelo de previsão da massa específica, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com R2Pred=0,98 e RMSEP (g/cm3)= 0,0002. Quanto ao modelo de previsão para o índice de refração, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com excelente R2Pred=0,98 e RMSEP= 0,0001. Para esses conjuntos de dados, o PLS e o SVM demonstraram sua robustez, apresentando-se como ferramentas úteis para a previsão das propriedades do biodiesel estudadas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A doença hepática gordurosa não alcoólica é uma desordem multifatorial causada principalmente por excesso nutricional e resistência à insulina, com prevalência estimada de 20-40% nos países ocidentais. A dieta hiperlipídica e/ou rica em sacarose pode influenciar no desenvolvimento da esteatose hepática associada à obesidade e a resistência à insulina. O fígado, por assumir papel central no controle metabólico, é um órgão alvo nos casos de excesso alimentar, ocasionando, principalmente, acúmulo de gotículas de gordura nos hepatócitos. Este trabalho teve como objetivo avaliar o início das alterações morfológicas e metabólicas no fígado e no tecido adiposo de camundongos suíços machos alimentados com dieta hiperlipídica e/ou rica em sacarose. Camundongos suíços machos aos três meses de idade foram divididos em quatro grupos nutricionais: dieta padrão (SC), dieta hiperlipídica (HF), dieta rica em sacarose (HSu) e dieta hiperlipídica rica em sacarose (HFHSu). Os animais receberam as respectivas dietas durante quatro semanas. A massa corporal, a ingestão alimentar e a tolerância oral à glicose foram avaliados. Ao sacrifício, o fígado e os depósitos de gordura corporal foram removidos e processados para análises histomorfométricas e moleculares. As amostras de sangue foram obtidas para análises bioquímicas plasmáticas. Os dados foram expressos como média e erro padrão da média e as diferenças foram testadas por one-way ANOVA com pós-teste de Holm-Sidak, e foi considerado o nível de significância de p<0,05. Os grupos HF e HFHSu apresentaram-se mais pesados quando comparados aos grupos SC e HSu. Os animais dos grupos HF, HSu e HFHSu apresentaram intolerância à glicose, esteatose hepática e aumento de triglicerídeos hepáticos quando comparados ao grupo SC (p<0,0005). Adicionalmente, houve elevação na expressão hepática das proteínas transportador de glicose 2 (GLUT-2), proteína de ligação ao elemento regulador do esterol 1-c (SREBP1-c), fosfoenolpiruvato carboxiquinase (PEPCK), glicose -6- fosfatase (G6PASE), substrato do receptor da insulinaI-1 (IRS-1) e proteína quinase B (AKt/ou PKB) e redução da expressão no fígado do receptor ativador de proliferação peroxissomal (PPAR-α) nos grupos experimentais em comparação com o grupo SC (p<0,0005). A administração de dieta hiperlipídica e/ou rica em sacarose promoveu intolerância à glicose e danos hepáticos (hepatomegalia, esteatose, redução da beta-oxidação, aumento na lipogênese e na produção de glicose) em camundongos machos adultos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem por objetivo propor algoritmos para conservação de energia de uma rede de sensores sem fio (RSSF) aplicada ao monitoramento de um processo suave f(x , y, t), que depende das coordenadas x e y dos nós sensores, e do tempo t, de forma a aumentar a autonomia da rede. Os algoritmos rodam na camada de aplicação de cada nó, e visam a economia de energia dos nós através do gerenciamento da necessidade de transmissões. Após a primeira amostra transmitida, apenas amostras com uma variação percentual maior do que um dado limiar são transmitidas. Além disso, cada nó pode permanecer inativo (economizando energia) entre essas transmissões. Em RSSfs de salto único, são propostos dois algoritmos: um baseado na fonte, onde cada nó é responsável por todo o processamento e tomada de decisões, e outro baseado no sorvedouro, onde todo o processamento e a tomada de decisões são realizadas pelo sorvedouro. Além disso, uma extensão de algoritmo baseado na fonte é proposta, para RSSFs de múltiplos saltos. Através dos resultados obtidos, observa-se que os algoritmos conseguiram uma redução significativa da quantidade de transmissões, o que leva a um aumento do tempo de vida e o erro na reconstrução do processo é apresentada. Desta forma, pode-se conjugar a relação entre tempo de vida máximo e erro de reconstrução mínimo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado o desenvolvimento de um sistema de posicionamento dinâmico para uma pequena embarcação baseado em controle a estrutura variável com realimentação por visão computacional. Foram investigadas, na literatura, diversas técnicas desenvolvidas e escolheu-se o controle a estrutura variável devido, principalmente, ao modo de acionamento dos propulsores presentes no barco utilizado para os experimentos. Somando-se a isto, foi considerada importante a robustez que a técnica de controle escolhida apresenta, pois o modelo utilizado conta com incerteza em sua dinâmica. É apresentado ainda o projeto da superfície de deslizamento para realizar o controle a estrutura variável. Como instrumento de medição optou-se por utilizar técnicas de visão computacional em imagens capturadas a partir de uma webcam. A escolha por este tipo de sistema deve-se a alta precisão das medições aliada ao seu baixo custo. São apresentadas simulações e experimentos com controle a estrutura variável em tempo discreto utilizando a integral do erro da posição visando eliminar o erro em regime. Para realizar o controle que demanda o estado completo, são comparados quatro estimadores de estado realizados em tempo discreto: derivador aproximado; observador assintótico com uma frequência de amostragem igual a da câmera; observador assintótico com uma frequência de amostragem maior que a da câmera; e filtro de Kalman.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.