982 resultados para algoritmo ripple


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article attempts to elucidate one of the mechanisms that link trade barriers, in the form of port costs, and subsequent growth and regional inequality. Prior attention has focused on inland or link costs, but port costs can be considered as a further barrier to enhancing trade liberalization and growth. In contrast to a highway link, congestion at a port may have severe impacts that are spread over space and time whereas highway link congestion may be resolved within several hours. Since a port is part of the transportation network, any congestion/disruption is likely to ripple throughout the hinterland. In this sense, it is important to model properly the role nodal components play in the context of spatial models and international trade. In this article, a spatial computable general equilibrium (CGE) model that is integrated to a transport network system is presented to simulate the impacts of increases in port efficiency in Brazil. The role of ports of entry and ports of exit are explicitly considered to grasp the holistic picture in an integrated interregional system. Measures of efficiency for different port locations are incorporated in the calibration of the model and used as the benchmark in our simulations. Three scenarios are evaluated: (1) an overall increase in port efficiency in Brazil to achieve international standards; (2) efficiency gains associated with decentralization in port management in Brazil; and (3) regionally differentiated increases in port efficiency to reach the boundary of the national efficiency frontier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Recently developed portable dental X-ray units increase the mobility of the forensic odontologists and allow more efficient X-ray work in a disaster field, especially when used in combination with digital sensors. This type of machines might also have potential for application in remote areas, military and humanitarian missions, dental care of patients with mobility limitation, as well as imaging in operating rooms. Objective: To evaluate radiographic image quality acquired by three portable X-ray devices in combination with four image receptors and to evaluate their medical physics parameters. Materials and methods: Images of five samples consisting of four teeth and one formalin-fixed mandible were acquired by one conventional wall-mounted X-ray unit, MinRay (R) 60/70 kVp, used as a clinical standard, and three portable dental X-ray devices: AnyRay (R) 60 kVp, Nomad (R) 60 kVp and Rextar (R) 70 kVp, in combination with a phosphor image plate (PSP), a CCD, or a CMOS sensor. Three observers evaluated images for standard image quality besides forensic diagnostic quality on a 4-point rating scale. Furthermore, all machines underwent tests for occupational as well as patient dosimetry. Results: Statistical analysis showed good quality imaging for all system, with the combination of Nomad (R) and PSP yielding the best score. A significant difference in image quality between the combination of the four X-ray devices and four sensors was established (p < 0.05). For patient safety, the exposure rate was determined and exit dose rates for MinRay (R) at 60 kVp, MinRay (R) at 70 kVp, AnyRay (R), Nomad (R) and Rextar (R) were 3.4 mGy/s, 4.5 mGy/s, 13.5 mGy/s, 3.8 mGy/s and 2.6 mGy/s respectively. The kVp of the AnyRay (R) system was the most stable, with a ripple of 3.7%. Short-term variations in the tube output of all the devices were less than 10%. AnyRay (R) presented higher estimated effective dose than other machines. Occupational dosimetry showed doses at the operator`s hand being lowest with protective shielding (Nomad (R): 0.1 mu Gy). It was also low while using remote control (distance > 1 m: Rextar (R) < 0.2 mu Gy, MinRay (R) < 0.1 mu Gy). Conclusions: The present study demonstrated the feasibility of three portable X-ray systems to be used for specific indications, based on acceptable image quality and sufficient accuracy of the machines and following the standard guidelines for radiation hygiene. (C) 2010 Elsevier Ireland Ltd. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The influence of near-bed sorting processes on heavy mineral content in suspension is discussed. Sediment concentrations above a rippled bed of mixed quartz and heavy mineral sand were measured under regular nonbreaking waves in the laboratory. Using the traditional gradient diffusion process, settling velocity would be expected to strongly affect sediment distribution. This was not observed during present trials. In fact, the vertical gradients of time-averaged suspension concentrations were found to be similar for the light and heavy minerals, despite their different settling velocities. This behavior implies a convective rather than diffusive distribution mechanism. Between the nonmoving bed and the lowest suspension sampling point, fight and heavy mineral concentration differs by two orders of magnitude. This discrimination against the heavy minerals in the pickup process is due largely to selective entrainment at the ripple face. Bed-form dynamics and the nature of quartz suspension profiles are found to be little affected by the trialed proportion of overall heavy minerals in the bed (3.8-22.1%).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa de mestrado teve como principal objetivo investigar estratégias de cálculo mental, utilizadas por alunos de uma 5ª série/6º ano do ensino fundamental ao resolver cálculos de adição e subtração. Para atingir este objetivo procuramos responder aos questionamentos: Quais estratégias de cálculo mental, alunos da 5ª série/6º ano empregam na resolução de cálculos de adição e subtração? Que relações existem entre o tipo de cálculo envolvido e a estratégia adotada para resolvê-lo? Para respondermos a essas questões, seguimos uma metodologia de natureza qualitativa, configurada como estudo de caso do tipo etnográfico. O trabalho de campo foi desenvolvido em uma turma de 5ª série/6º ano do ensino fundamental de uma escola pública da rede estadual de ensino do município de Serra. A pesquisa aconteceu de maio a dezembro de 2013. Oito alunos resolveram uma atividade diagnóstica composta de quatro sequências de cálculos mentais, a saber, fatos fundamentais do número 5, do número 10, do número 20 e do número 100, dentre adições e subtrações próximas a esses resultados. Todos alunos participaram da etapa de entrevistas. Dos oito alunos, foram escolhidos dados de três que participaram de outras etapas da pesquisa. Os registros realizados pelos alunos na etapa de observação da turma, na etapa diagnóstica e na etapa de intervenção didática, as anotações no caderno de campo e algumas gravações em áudio serviram como fontes de coleta de dados. Utilizamos as estratégias identificadas por Beishuizen (1997), Klein e Beishuizen (1998), Thompson (1999, 2000) e Lucangeli et al. (2003), como categorias de análise. Através da análise de dados, constatamos que as escolhas das estratégias de cálculo mental pelos alunos variaram de acordo com o tipo de sequência de cálculos, a operação aritmética (adição ou subtração) e o estado emocional deles durante a atividade. Foi possível identificar o uso de duas estratégias combinadas, o algoritmo mental e estratégias de contagens nos dedos para grande parte dos cálculos. O uso do algoritmo mental mostrou-se um procedimento de grande sobrecarga mental e, em alguns cálculos de adição sem reserva, serviu apenas como apoio à visualização numérica, sendo executado pelo aluno da esquerda para a direita, semelhantemente à estratégia de decomposição numérica. Os dados deste estudo apontam para: (i) a necessidade de se trabalhar fatos numéricos fundamentais de adição e subtração via cálculo mental de maneira sistemática em sala de aula; (ii) a necessidade de se ensinar estratégias autênticas de cálculo mental para que os alunos não se tornem dependentes de estratégias como contagens e algoritmo mental, que são mais difíceis de serem executadas com êxito; (iii) a importância de entrevistar, individualmente, os alunos a fim de compreender e avaliar o desenvolvimento destes em tarefas de cálculo mental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um algoritmo numérico foi criado para apresentar a solução da conversão termoquímica de um combustível sólido. O mesmo foi criado de forma a ser flexível e dependente do mecanismo de reação a ser representado. Para tanto, um sistema das equações características desse tipo de problema foi resolvido através de um método iterativo unido a matemática simbólica. Em função de não linearidades nas equações e por se tratar de pequenas partículas, será aplicado o método de Newton para reduzir o sistema de equações diferenciais parciais (EDP’s) para um sistema de equações diferenciais ordinárias (EDO’s). Tal processo redução é baseado na união desse método iterativo à diferenciação numérica, pois consegue incorporar nas EDO’s resultantes funções analíticas. O modelo reduzido será solucionado numericamente usando-se a técnica do gradiente bi-conjugado (BCG). Tal modelo promete ter taxa de convergência alta, se utilizando de um número baixo de iterações, além de apresentar alta velocidade na apresentação das soluções do novo sistema linear gerado. Além disso, o algoritmo se mostra independente do tamanho da malha constituidora. Para a validação, a massa normalizada será calculada e comparada com valores experimentais de termogravimetria encontrados na literatura, , e um teste com um mecanismo simplificado de reação será realizado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modelos de escoamento multifásico são amplamente usados em diversas áreas de pesquisa ambiental, como leitos fluidizados, dispersão de gás em líquidos e vários outros processos que englobam mais de uma propriedade físico-química do meio. Dessa forma, um modelo multifásico foi desenvolvido e adaptado para o estudo do transporte de sedimentos de fundo devido à ação de ondas de gravidade. Neste trabalho, foi elaborado o acoplamento multifásico de um modelo euleriano não-linear de ondas do tipo Boussinesq, baseado na formulação numérica encontrada em Wei et al. (1995), com um modelo lagrangiano de partículas, fundamentado pelo princípio Newtoniano do movimento com o esquema de colisões do tipo esferas rígidas. O modelo de ondas foi testado quanto à sua fonte geradora, representada por uma função gaussiana, pá-pistão e pá-batedor, e quanto à sua interação com a profundidade, através da não-linearidade e de propriedades dispersivas. Nos testes realizados da fonte geradora, foi observado que a fonte gaussiana, conforme Wei et al. (1999), apresentou melhor consistência e estabilidade na geração das ondas, quando comparada à teoria linear para um kh   . A não-linearidade do modelo de ondas de 2ª ordem para a dispersão apresentou resultados satisfatórios quando confrontados com o experimento de ondas sobre um obstáculo trapezoidal, onde a deformação da onda sobre a estrutura submersa está em concordância com os dados experimentais encontrados na literatura. A partir daí, o modelo granular também foi testado em dois experimentos. O primeiro simula uma quebra de barragem em um tanque contendo água e o segundo, a quebra de barragem é simulada com um obstáculo rígido adicionado ao centro do tanque. Nesses experimentos, o algoritmo de colisão foi eficaz no tratamento da interação entre partícula-partícula e partícula-parede, permitindo a evidência de processos físicos que são complicados de serem simulados por modelos de malhas regulares. Para o acoplamento do modelo de ondas e de sedimentos, o algoritmo foi testado com base de dados da literatura quanto à morfologia do leito. Os resultados foram confrontados com dados analíticos e de modelos numéricos, e se mostraram satisfatórios com relação aos pontos de erosão, de sedimentação e na alteração da forma da barra arenosa

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evapotranspiração define a perda total de água do sistema solo-planta para a atmosfera. Nas áreas agrícolas, particularmente onde se pratica algum tipo de irrigação, a determinação da evapotranspiração, por via de sensoriamento remoto, vem ganhando cada vez mais importância, pois possibilita identificar a eficiência com que a água tem sido utilizada. Nesse contexto, este trabalho tem o objetivo de determinar a evapotranspiração real diária (ETr diária), com a utilização de produtos do sensor MODIS, nas sub-bacias do Ribeirão Entre Ribeiros e Rio Preto, que ficam entre os Estados de Goiás e Minas Gerais. O SEBAL (Surface Energy Balance Algorithm for Land) foi utilizado para a obtenção da ETr diária em quatro dias diferentes, no período de julho a outubro de 2007. Os resultados encontrados foram compatíveis com os citados em outras literaturas e a comparação entre a evapotranspiração, obtida pelo SEBAL, e a evapotranspiração da cultura (ETc) demonstraram que esse algoritmo pode ser utilizado como boa opção para determinar, com a utilização de produtos do sensor MODIS, a evapotranspiração diária nas condições das sub-bacias do ribeirão Entre Ribeiros e rio Preto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho é uma atualização do artigo publicado pelo autor na RAE em 1974 e tem por finalidade: a) definir o Problema da Decisão Qualitativa (PDQ); b) mostrar como certos tipos de problemas lógicos podem ser formulados como PDQs; c) apresentar um método de resolução do PDQ, o qual utiliza resolução de equações booleanas; d) apresentar um processo original de resolução destas equações, o Algoritmo RQ, facilmente programável em computadores. Os resultados apresentados são produto de trabalhos desenvolvidos no antigo Departamento de Engenharia de Eletricidade da EPUSP, os quais deram origem a diversas publicações, entre elas 1, 4, 5, 6, 7, 8, 9, 10, 11,20,23, 24, 25, 28,29 (veja bibliografia no final do artigo). Partes deste artigo são adaptações de trechos de livro do mesmo autor(11), onde se encontram os fundamentos teóricos, aplicações, sugestões para novos desenvolvimentos e listagens para microcomputador do SDB/3, um sistema de auxílio à tomada de decisões que resolve o PDQ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo originou-se da análise dos limites epistemológicos - e, portanto, dos perigos inerentes aos conhecimentos produzidos - no tocante à liderança. Nossas reflexões permitiram estabelecer uma classificação original de diferentes tipos de estudos relativos à liderança. Esses tipos de estudo caracterizam-se por pertencer a um paradigma, que é a concepção de liderança. Em nossa pesquisa, foram identificados quatro paradigmas relacionados à liderança: racionalista, empírico, sensacionista e dogmático. Enquanto o paradigma racionalista concebe a liderança como um algoritmo de ações racionalmente refletidas, o paradigma empírico sustenta que se trata mais de uma habilidade para manipular os instrumentos de mobilização com eficiência. O paradigma sensacionista considera, por sua vez, que a liderança é uma filosofia de vida explícita. Por fim, o paradigma dogmático define a liderança como a expressão da psiquê dos dirigentes. Embora os conhecimentos produzidos em qualquer um dos quatro paradigmas possam revelar-se úteis para a compreensão do fenômeno da liderança, todos eles correm o risco de cair na armadilha de um entusiasmo heurístico. Assim, o racionalismo pode terminar em intelectualismo, o empirismo, em reducionismo, o sensacionismo, em simplismo e o dogmatismo, em misticismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo tem por objetivo desenvolver um algoritmo para representar a dinâmica das interações que conduzem à formação de conexões entre indivíduos dentro de uma organização. Por meio de um procedimento de simulação computacional, utiliza-se um critério matemático para a definição da opinião de um indivíduo sobre outro. O intuito é identificar como diferentes características, em especial o consenso sobre as competências de um indivíduo e o peso atribuído aos valores pessoais, influem na estrutura das redes sociais. Os resultados do modelo mostram que, quando o consenso é alto, a rede é mais densa, conduzindo a relacionamentos mais complexos dentro da organização, podendo implicar sinergias e até mesmo inércia. De modo contrário, quando o consenso é baixo, conflitos em pequenos grupos podem constituir barreiras para a comunicação entre os indivíduos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aborda o problema do desenho de códigos espácio-temporais para sistemas de comunicação multiple-input multiple-output (MIMO) sem fios. Considera-se o contexto realista e desafiante da recepção não-coerente (a realização do canal é desconhecida no receptor). O detector conhecido como generalized likelihood ratio test (GLRT)é implementado no receptor e, ao contrário da maioria das abordagens actuais, permite-se uma estrutura de correlação arbitrária para o ruído gaussiano de observação. Apresenta-se uma análise teórica para a probabilidade de erro do detector, em ambos os regimes assimptóticos de relação sinal-ruído (SNR) alta e baixa. Essa análise conduz a um critério de optimalidade para desenho de códigos e permite uma re-interpretação geométrica do problema abordado como um problema de empacotamento óptimo num producto Cartesiano de espaço projectivos. A construção dos códigos implica a resolução de um problema de optimização não-linear, não-diferenciável e de dimensão elevada, o qual foi abordado aqui em duas fases. A primeira fase explora uma relaxação convexa do problema original para obter uma estimativa inicial. A segunda fase, refina essa estimativa através de um algoritmo iterativo de descida do gradiente ao longo de geodésicas, explorando-se assim a geometria Riemanniana imposta pelas restricões de potência sobre os códigos espáciotemporais. Mostra-se que o desempenho dos novos códigos obtidos por este método excede o das soluções previamente conhecidas. De facto, para algumas configurações particulares, estas novas constelações atingem o limiar de Rankin e são por isso garantidamente óptimas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A saturação do solo de fundação de um edifício pode estar associada a danos neste, por intermédio de assentamentos de colapso. A anulação da sucção matricial, que representa o efeito das forças inter-partículas de natureza capilar, é responsável por estes assentamentos. Neste trabalho utilizou-se um algoritmo especificamente formulado para simular os assentamentos por colapso. Foram feitas análises numéricas dos assentamentos e danos provocados na fachada em alvenaria de um edifício pela saturação ocorrida numa zona do solo de fundação. Foi estudada a influência dos seguintes factores: a sucção inicial do solo, o grau de pré-consolidação do solo e a extensão e localização da zona saturada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde o início da utilização da imunocitoquímica em anatomia patológica, um dos objectivos tem sido detectar as quantidades mais ínfimas de antigénio, tornando-o visível ao microscópio óptico. Vários sistemas de amplificação têm sido aplicados de forma a concretizar este objectivo, tendo surgido um grupo genérico de métodos simples e que apresentam uma amplificação superior: são os denominados métodos do polímero indirecto. Tendo em conta a variedade de métodos disponíveis, os autores propõem-se comparar a sensibilidade de quatro sistemas de amplificação, que recorrem ao método do polímero indirecto com horseradish peroxidase (HRP). Foram utlizadas lâminas de diferentes tecidos fixados em formol e incluídos em parafina, nos quais se procedeu à utilização de 15 antigénios distintos. Na amplificação recorreu-se a quatro sistemas de polímero indirecto (Dako EnVision+ System K4006; LabVision UltraVision LP Detection System TL-004-HD; Novocastra NovoLink RE7140-k; Vector ImmPRESS Reagent Kit MP-7402). A observação microscópica e classificação da marcação obtida foi feita com base num algoritmo que enquadra intensidade, marcação específica, contraste e fundo num score global que pode tomar valores entre 0 e 25. Para o tratamento estatístico foi utilizado o teste oneway ANOVA com post-hoc de tukey (alfa=0.05). O melhor resultado obtido em termos de par média/desvio-padrão dos scores globais foi o do NovoLink (22.4/2.37) e o pior EnVision+ (17.43/3.86). Verificou-se ainda que existite diferença estatística entre os resultados obtidos pelo sistema NovoLink e os sistemas UltraVision (p=.004), ImmPRESS (p=.000) e EnVision+ (p=.000). Concluiu-se que o sistema que permitiu a obtenção de melhores resultados, neste estudo, foi o NovoLink.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aborda a procura distribuída de soluções baseando-se em cenários cuja informação não esteja totalmente disponível, por não ser possível ou mesmo porque não é desejável. Os dois tipos de problemas abordados neste trabalho são: i) o problema de atribuição de tarefas, e ii) o problema de agendamento de eventos. O problema de atribuição de tarefas é ilustrado num cenário de catástrofe (atribuição de incêndios a bombeiros) cujos agentes tentam encontrar a melhor solução global de acordo com as capacidades de cada um. O problema do agendamento de eventos com múltiplos recursos, ocorre numa organiza- ção que pretende maximizar o valor do tempo dos seus empregados, enquanto preserva o valor individual (privacidade) atribuído ao evento (valor da importância relativa do evento). Estes problemas são explorados para confrontar os dois tipos de abordagem na sua resolução: centralizada e distribuída. Os problemas são formulados para resolução de maneira distribuída e centralizada, de modo a evidenciar as suas características e as situações em que fará mais sentido a utilização de cada abordagem. O desempenho a nível de tempo de execução e consumo de memória, bem como o conceito de privacidade são os pontos considerados no comparativo das abordagens centralizada e distribuída. Para analisar o problema de atribuição de tarefas e o problema de agendamento de eventos, é proposto um modelo que integra dois tipos de formulação de problemas distribuídos, e que utiliza um algoritmo distribuído para a resolução dos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As características dos vídeos recolhidos num sistema de videovigilância são bastante diferentes dos vídeos recolhidos para filmes. Cada sistema de videovigilância é único. Este trabalho trata a implementação, e especialização, de um algoritmo de codificação de vídeo para um sistema particular de videovigilância composto por três câmaras fixas. O algoritmo desenvolvido tira partido do facto de se conhecer previamente as características físicas e de utilização do local. Utilizando uma codificação inteligente, a codificação das imagens recolhidas depende do dia da semana, hora, câmara e da detecção de alterações na área que se encontra sob vigilância. A especialização é realizada através da configuração do codificador, tendo em conta critérios pré-definidos, de modo a obter uma relação adequada entre a qualidade de imagem e a compressão dos dados. As imagens são independentemente codificadas pela seguinte ordem de operações: transformada discreta do co-seno, quantização, run-length e codificação de Huffman. São armazenadas todas as imagens onde for detectado movimento, não a totalidade da imagem, mas apenas as regiões onde foi detectado movimento sendo utilizado uma decomposição em árvore quaternária. Foi implementado um protótipo de modo a avaliar o desempenho do algoritmo de codificação. O algoritmo, quando comparado com a técnica de codificação usada no sistema de videovigilância, apresenta uma maior taxa de compressão As imagens descodificadas apresentam qualidade suficiente para identificar as pessoas em pontos críticos e seguir os seus movimentos ao longo do corredor.