992 resultados para Disponibilidade e eficiência


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese propõe um modelo de regeneração de energia metroviária, baseado no controle de paradas e partidas do trem ao longo de sua viagem, com o aproveitamento da energia proveniente da frenagem regenerativa no sistema de tração. O objetivo é otimizar o consumo de energia, promover maior eficiência, na perspectiva de uma gestão sustentável. Aplicando o Algoritmo Genético (GA) para obter a melhor configuração de tráfego dos trens, a pesquisa desenvolve e testa o Algoritmo de Controle de Tração para Regeneração de Energia Metroviária (ACTREM), usando a Linguagem de programação C++. Para analisar o desempenho do algoritmo de controle ACTREM no aumento da eficiência energética, foram realizadas quinze simulações da aplicação do ACTREM na linha 4 - Amarela do metrô da cidade de São Paulo. Essas simulações demonstraram a eficiência do ACTREM para gerar, automaticamente, os diagramas horários otimizados para uma economia de energia nos sistemas metroviários, levando em consideração as restrições operacionais do sistema, como capacidade máxima de cada trem, tempo total de espera, tempo total de viagem e intervalo entre trens. Os resultados mostram que o algoritmo proposto pode economizar 9,5% da energia e não provocar impactos relevantes na capacidade de transporte de passageiros do sistema. Ainda sugerem possíveis continuidades de estudos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os elementos potencialmente tóxicos (EPTs) estão presentes nos solos em concentrações dependentes do material de origem e das ações antrópicas. A adição de EPTs ao solo pelas atividades antrópicas pode ocasionar risco à saúde humana, já que estes elementos podem ser acumulados no organismo por meio do contato dérmico com o solo, da inalação de partículas em suspensão, de ingestão de solo e de alimentos contaminados. A contaminação dos alimentos ocorre pelo cultivo em áreas com alta biodisponibilidade de EPTs, e nessa condição ocorre absorção e translocação para a parte aérea, com possível acúmulo dos metais nas porções comestíveis, como raízes, frutos e grãos. A biodisponibilidade dos EPTs é regulada pelas características químicas dos elementos e por atributos do solo, como a CTC, o pH e a matéria orgânica (MO). Sintomas de toxicidade e alterações morfológicas e fisiológicas podem aparecer dependendo da absorção e da movimentação dos EPTs nas plantas. Objetivou-se neste trabalho avaliar o efeito da adição de bário (Ba), de cádmio (Cd), de cobre (Cu), de níquel (Ni) e de zinco (Zn) em amostras de um Neossolo Quartzarênico e um Latossolo Vermelho distrófico, sob duas condições de saturação por bases (30% e 50 ou 70%, dependendo da cultura), no cultivo de arroz (Oryza sativa), alface (Lactuca sativa), girassol (Helianthus annuus) e tomate (Solanum lycopersicum). Os EPTs nos solos foram extraídos com EPA 3051a, Água Régia, DTPA, Mehlich 1, Mehlich 3, HNO3 (0,43 mol L-1) e CaCl2 (0,01 mol L-1), e seus teores correlacionados com os presentes nas raízes, na parte aérea, nos frutos e com a quantidade acumulada pelas plantas. Os fatores de bioconcentração (FBC) e de transferência (FT) foram calculados para as culturas. O índice SPAD (Soil Plant Analysis Development - Chlorophyll Meter) foi determinado na fase vegetativa da alface, do arroz e do girassol, enquanto a atividade fotossintética foi determinada pelo IRGA (Infrared gas analyzer). Os maiores teores de EPTs foram observados nas plantas cultivadas no Neossolo. As quantidades de Cu, Ni e Zn acumuladas nas plantas apresentaram correlação positiva com os teores extraídos pelo EPA 3051a e pela Água Régia. Os teores extraídos com HNO3 (0,43 mol L-1) apresentaram elevada correlação positiva com os teores reativos extraídos com DTPA e com Mehlich 3, e também com as quantidades de EPTs acumuladas pelas plantas. Os FBCs foram mais altos nos solos com baixa CTC, baixos teores de MO e baixos valores de pH. O arroz apresentou a menor translocação de Cd do sistema radicular para os grãos. O Cu, o Ni e o Zn causaram alterações no desenvolvimento da alface e do girassol, e diminuíram a transpiração e a condutância estomática da alface. O arroz apresentou a menor absorção de EPTs e a maior tolerância ao Ba, ao Cd, ao Ni e ao Zn, no entanto, as plantas apresentaram maiores condutividade estomática e transpiração.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cooperativas de crédito são instituições financeiras que têm como finalidade principal a prestação de serviços bancários e de intermediação financeira voltando-se para a geração de benefícios ao cooperado, através de benefícios econômicos encontrados sob a forma cooperativada. Considerando o objetivo destas organizações, o presente trabalho teve por objetivo avaliar a eficiência das mesmas considerando duas vertentes: 1) a atividade de intermediação financeira; e 2) a atividade de prestação de serviços bancários, a partir de variáveis contábeis. A técnica utilizada para a avaliação da eficiência foi a Análise Envoltória de Dados e foram analisados os determinantes da eficiência por meio de regressões do tipo Tobit. A amostra é composta por 315 cooperativas singulares listadas na base de dados do Banco Central do Brasil e foram utilizados os dados dos balancetes anuais e semestrais (soma dos semestres para as contas de resultado de cada ano) apresentados para período de 2007 a 2014. Os resultados indicaram baixa eficiência das cooperativas na prestação de serviços bancários, com 73% da amostra apresentando ineficiência ao longo de todos os anos do período em análise. Na atividade de intermediação financeira 20 cooperativas foram eficientes ao longo do período completo, com as demais apresentando graus de ineficiência abaixo de 16% em todos os anos. Quanto aos determinantes da eficiência, verificou-se como principais fatores na atividade de intermediação financeira a Imobilização, a Insolvência, o Descasamento Passivo e as Despesas Administrativas, enquanto na atividade de prestação de serviços os principais determinantes foram a Captação por Floating e as Despesas Administrativas. Os resultados da eficiência na intermediação financeira indicaram baixos graus de ineficiência, enquanto os altos graus de ineficiência na prestação de serviços bancários alertaram para a pouca importância dada ao fornecimentos destes serviços e para a importância de se utilizar dois modelos distintos para a avaliação da eficiência em cooperativas de crédito, dado o comportamento desvinculado entre as duas atividades avaliadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para que a sustentabilidade seja gerenciada e praticada de maneira efetiva, ela deve ser mensurada, utilizando-se de métodos de avaliação da sustentabilidade. Estão disponíveis diferentes métodos de avaliação, que geralmente reduzem o resultado desse levantamento à indicadores de desempenho ambiental, econômico e social (POPEA; ANNANDALE; MORISON-SAUNDERSB, 2004). Uma das denominações mais bem aceitas e difundidas para a conjunção da dimensão ambiental e econômica é conhecida por avaliação de eco eficiência (AEE). Eco eficiência é o \"aspecto da sustentabilidade que relaciona o desempenho ambiental de um sistema de produto ao valor do sistema de produto\" (ISO, 2012). Estão disponíveis diferentes métodos de AEE, porém sem evidência das suas semelhanças e particularidades e como essas características influenciam na escolha do método mais adequado de AEE em relação às potenciais aplicações O objetivo desta pesquisa é, portanto, analisar e indicar os tipos de métodos de avaliação de eco eficiência (AEE) mais adequados para ações gerenciais nas quais caibam tais abordagens. Foram selecionados onze métodos de AEE, a partir do estabelecimento de critérios de caracterização desses métodos, a saber: BASF, Bayer, EcoWater, Hahn et al., Kuosmanen e Kortelainen, MIPS, NRTEE, UN ESCAP, UN, TU Delft, e WBCSD. Identificaram-se, ainda, quatro potenciais aplicações: (i) Monitoramento de processo com vistas à melhoria contínua; (ii) Selecção e classificação de produtos; (iii) Atendimento a requisitos legais e outros requisitos; e, (iv) Marketing, rotulagem de produtos e comunicação ambiental. A partir dos elementos metodológicos estabelecidos pela norma ISSO 14045 (2012) e do conhecimento obtido dos métodos de AEE, determinaram-se quatro requisitos pelos quais os métodos e os potenciais aplicações foram avaliados: (i) Tipo de indicador de desempenho ambiental; (ii) Tipo de indicador de valor de sistema de produto; (iii) Abrangência de aplicação; e, (iv) Tipo de indicador de eco eficiência. Aplicando-se estes requisitos nos métodos de AEE e nos potenciais usos, concluiu-se que quanto à aplicações em termos de monitoramento de processos com vistas à melhoria continua os métodos de AEE recomendados foram Bayer, NRTEE, WBCSD e UN. Para situações de seleção e classificação de produtos os métodos BASF, EcoWater, Kuosmanen e Kortelainen, MIPS, Hahn et al., TU Delft, UN ESCAP e UN demonstraram ter boa aderência. No que se refere a usos voltados ao atendimento de requisitos legais e/ou de outras naturezas, os métodos NRTEE, WBCSD e UN são os mais indicados. Em aplicações de marketing, rotulagem e comunicação foram indicados os métodos BASF, EcoWater e MIPS. Finalmente, concluiu-se que, para a escolha adequada da metodologia para uma AEE, conhecimento prévio das características de cada abordagem é necessário.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em Bioinformática são frequentes problemas cujo tratamento necessita de considerável poder de processamento/cálculo e/ou grande capacidade de armazenamento de dados e elevada largura de banda no acesso aos mesmos (de forma não comprometer a eficiência do seu processamento). Um exemplo deste tipo de problemas é a busca de regiões de similaridade em sequências de amino-ácidos de proteínas, ou em sequências de nucleótidos de DNA, por comparação com uma dada sequência fornecida (query sequence). Neste âmbito, a ferramenta computacional porventura mais conhecida e usada é o BLAST (Basic Local Alignment Search Tool) [1]. Donde, qualquer incremento no desempenho desta ferramenta tem impacto considerável (desde logo positivo) na atividade de quem a utiliza regularmente (seja para investigação, seja para fins comerciais). Precisamente, desde que o BLAST foi inicialmente introduzido, foram surgindo diversas versões, com desempenho melhorado, nomeadamente através da aplicação de técnicas de paralelização às várias fases do algoritmo (e. g., partição e distribuição das bases de dados a pesquisar, segmentação das queries, etc. ), capazes de tirar partido de diferentes ambientes computacionais de execução paralela, como: máquinas multi-core (BLAST+ 2), clusters de nós multi-core (mpiBLAST3J e, mais recentemente, co-processadores aceleradores como GPUs" ou FPGAs. É também possível usar as ferramentas da família BLAST através de um interface/sítio WEB5, que permite, de forma expedita, a pesquisa de uma variedade de bases de dados conhecidas (e em permanente atualização), com tempos de resposta suficientemente pequenos para a maioria dos utilizadores, graças aos recursos computacionais de elevado desempenho que sustentam o seu backend. Ainda assim, esta forma de utilização do BLAST poderá não ser a melhor opção em algumas situações, como por exemplo quando as bases de dados a pesquisar ainda não são de domínio público, ou, sendo-o, não estão disponíveis no referido sitio WEB. Adicionalmente, a utilização do referido sitio como ferramenta de trabalho regular pressupõe a sua disponibilidade permanente (dependente de terceiros) e uma largura de banda de qualidade suficiente, do lado do cliente, para uma interacção eficiente com o mesmo. Por estas razões, poderá ter interesse (ou ser mesmo necessário) implantar uma infra-estrutura BLAST local, capaz de albergar as bases de dados pertinentes e de suportar a sua pesquisa da forma mais eficiente possível, tudo isto levando em conta eventuais constrangimentos financeiros que limitam o tipo de hardware usado na implementação dessa infra-estrutura. Neste contexto, foi realizado um estudo comparativo de diversas versões do BLAST, numa infra-estrutura de computação paralela do IPB, baseada em componentes commodity: um cluster de 8 nós (virtuais, sob VMWare ESXi) de computação (com CPU Í7-4790K 4GHz, 32GB RAM e 128GB SSD) e um nó dotado de uma GPU (CPU Í7-2600 3.8GHz, 32GB RAM, 128 GB SSD, 1 TB HD, NVIDIA GTX 580). Assim, o foco principal incidiu na avaliação do desempenho do BLAST original e do mpiBLAST, dado que são fornecidos de base na distribuição Linux em que assenta o cluster [6]. Complementarmente, avaliou-se também o BLAST+ e o gpuBLAST no nó dotado de GPU. A avaliação contemplou diversas configurações de recursos, incluindo diferentes números de nós utilizados e diferentes plataformas de armazenamento das bases de dados (HD, SSD, NFS). As bases de dados pesquisadas correspondem a um subconjunto representativo das disponíveis no sitio WEB do BLAST, cobrindo uma variedade de dimensões (desde algumas dezenas de MBytes, até à centena de GBytes) e contendo quer sequências de amino-ácidos (env_nr e nr), quer de nucleótidos (drosohp. nt, env_nt, mito. nt, nt e patnt). Para as pesquisas foram 'usadas sequências arbitrárias de 568 letras em formato FASTA, e adoptadas as opções por omissão dos vários aplicativos BLAST. Salvo menção em contrário, os tempos de execução considerados nas comparações e no cálculo de speedups são relativos à primeira execução de uma pesquisa, não sendo assim beneficiados por qualquer efeito de cache; esta opção assume um cenário real em que não é habitual que uma mesma query seja executada várias vezes seguidas (embora possa ser re-executada, mais tarde). As principais conclusões do estudo comparativo realizado foram as seguintes: - e necessário acautelar, à priori, recursos de armazenamento com capacidade suficiente para albergar as bases de dados nas suas várias versões (originais/compactadas, descompactadas e formatadas); no nosso cenário de teste a coexistência de todas estas versões consumiu 600GBytes; - o tempo de preparação (formataçâo) das bases de dados para posterior pesquisa pode ser considerável; no nosso cenário experimental, a formatação das bases de dados mais pesadas (nr, env_nt e nt) demorou entre 30m a 40m (para o BLAST), e entre 45m a 55m (para o mpiBLAST); - embora economicamente mais onerosos, a utilização de discos de estado sólido, em alternativa a discos rígidos tradicionais, permite melhorar o tempo da formatação das bases de dados; no entanto, os benefícios registados (à volta de 9%) ficam bastante aquém do inicialmente esperado; - o tempo de execução do BLAST é fortemente penalizado quando as bases de dados são acedidas através da rede, via NFS; neste caso, nem sequer compensa usar vários cores; quando as bases de dados são locais e estão em SSD, o tempo de execução melhora bastante, em especial com a utilização de vários cores; neste caso, com 4 cores, o speedup chega a atingir 3.5 (sendo o ideal 4) para a pesquisa de BDs de proteínas, mas não passa de 1.8 para a pesquisa de BDs de nucleótidos; - o tempo de execução do mpiBLAST é muito prejudicado quando os fragmentos das bases de dados ainda não se encontram nos nós do cluster, tendo que ser distribuídos previamente à pesquisa propriamente dita; após a distribuição, a repetição das mesmas queries beneficia de speedups de 14 a 70; porém, como a mesma base de dados poderá ser usada para responder a diferentes queries, então não é necessário repetir a mesma query para amortizar o esforço de distribuição; - no cenário de teste, a utilização do mpiBLAST com 32+2 cores, face ao BLAST com 4 cores, traduz-se em speedups que, conforme a base de dados pesquisada (e previamente distribuída), variam entre 2 a 5, valores aquém do máximo teórico de 6.5 (34/4), mas ainda assim demonstradores de que, havendo essa possibilidade, compensa realizar as pesquisas em cluster; explorar vários cores) e com o gpuBLAST, realizada no nó com GPU (representativo de uma workstation típica), permite aferir qual a melhor opção no caso de não serem possíveis pesquisas em cluster; as observações realizadas indicam que não há diferenças significativas entre o BLAST e o BLAST+; adicionalmente, o desempenho do gpuBLAST foi sempre pior (aproximadmente em 50%) que o do BLAST e BLAST+, o que pode encontrar explicação na longevidade do modelo da GPU usada; - finalmente, a comparação da melhor opção no nosso cenário de teste, representada pelo uso do mpiBLAST, com o recurso a pesquisa online, no site do BLAST5, revela que o mpiBLAST apresenta um desempenho bastante competitivo com o BLAST online, chegando a ser claramente superior se se considerarem os tempos do mpiBLAST tirando partido de efeitos de cache; esta assunção acaba por se justa, Já que BLAST online também rentabiliza o mesmo tipo de efeitos; no entanto, com tempos de pequisa tão reduzidos (< 30s), só é defensável a utilização do mpiBLAST numa infra-estrutura local se o objetivo for a pesquisa de Bds não pesquisáveis via BLAS+ online.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Por definição, todos os recursos são escassos e limitados. Acontece precisamente isso com a água e com o dinheiro. É neste sentido que urge controlar os consumos de água, sensibilizar para o seu uso racional e encontrar as soluções que permitam reduzir o valor faturado. O GTMI do ISEC, local onde foi realizado este estágio, percebeu que algo teria de ser feito rapidamente de modo a inverter a situação de grandes consumos de água que se verificavam. Procedeu-se ao levantamento da rede e à sua caraterização. Fez-se a monitorização dos consumos, com especial ênfase nas horas noturnas. Introduziram-se elementos na rede de modo a permitir definir zonamentos e mais rapidamente serem encontradas as anomalias existentes. Identificaram-se fugas de água e procedeu-se às respetivas reparações. Criou-se um ramal de abastecimento à “casa do guarda” com um contador independente. Tornou-se operacional o furo existente. Prepararam-se empreitadas para permitir o fornecimento independente de água, diretamente do sistema público de abastecimento, aos bares e cantina do ISEC. Estudou-se a possibilidade de, à exceção das zonas onde será impreterível o fornecimento de água potável, o abastecimento de água ter origem na captação própria e não com origem na rede pública (aguarda-se neste momento a decisão de colocar em prática esta opção). O ISEC já teve consumos de água muito superiores aos atuais, em boa parte explicados pelo crescimento da sua comunidade. Mas, com o trabalho agora desenvolvido percebeu-se que não era essa a razão exclusiva e que poderiam ser concretizadas muitas ações de melhoria. O presente já revela uma grande diminuição do consumo de água e da respetiva fatura. Muitas foram as ações postas em prática, que correspondiam à motivação base para a realização deste estágio, e que, sem dúvida, contribuíram de forma decisiva para aumentar a eficiência hídrica do ISEC. Porém, este é um esforço que carece ser continuado. O trabalho não está concluído e nunca estará. A existência de comportamentos negligentes e o natural envelhecimento dos materiais originarão sempre novas perdas de água. A solução passa por haver sempre alguém e (com) os recursos necessários para identificar e corrigir as anomalias à medida que estas forem ocorrendo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho propõe-se a estudar os efeitos sobre as ações da Petrobras decorrentes da apresentação dos balanços do terceiro e quarto trimestre de 2014, primeiros balanços apresentados após as denúncias da Operação Lava Jato. Avaliamos os impactos nos preços das ações da empresa através de um Estudo de Evento. Como controle, analisamos os efeitos da divulgação de 1.152 balanços trimestrais sobre outras 48 ações de que fazem parte da Carteira Teórica do IBOVESPA no período entre 2010 e 2015. Buscamos identificar a presença de retornos anormais e verificar se toda informação se transfere automaticamente aos preços, sugerindo a eficiência semiforte do mercado de ações brasileiro de acordo com a Hipótese de Eficiência do Mercado (HEM) desenvolvida por Fama (1970). Ao final comparamos os resultados específicos dos balanços em estudo com os resultados observados em outros balanços da própria Petrobras. Não foram encontradas evidências de eficiência de mercado durante o período 2010-2015 nem para o grupo de 48 ações, chamadas de NÃO_PETRO, nem para o grupo PETRO, formado pelas duas ações da Petrobras. Ao dividir os mesmos grupos em dois momentos, os resultados para o período batizado de Bonança (2010-2013), permanecem iguais ao do período completo, ao passo que o período chamado de Crise (2014 -2015) apresenta retornos anormais estatisticamente significativos nas janelas de eventos. Ao avaliar os retornos de balanços individuais da Petrobras, identificamos a necessidade de informações adicionais, extrapolando o escopo de um estudo de evento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objetivo deste estudo é análise da eficiência Econômica-Financeira das empresas siderúrgicas brasileiras no biênio 2004/2005, as quais foram fortemente influenciadas pela reestruturação produtiva do setor siderúrgico provocado pelo programa de privatização na década de 90 seguido de volumosos investimentos com ênfase na eliminação dos gargalos na produção, aumentando a capacidade produtiva do setor, além de aquisições em tecnologia. Portanto indaga-se: A) Os grandes investimentos ocorridos no setor siderúrgico pós-privatizações proporcionaram homogeneidade na eficiência Econômica-Financeira das empresas? B) Quais as empresas que apresentaram os melhores indicadores de eficiência Econômica Financeira no período estudado? Optou-se pelo método de Análise Envoltória de Dados (DEA) para a análise da eficiência proposta, que demonstrou facilidade quando a operabilidade e eficácia para a análise. Os resultados identificaram que os investimentos realizados não levaram a uma distribuição homogênea na eficiência Econômica-Financeira nas empresas estudadas, também foi identificado que as empresas do grupo Arcelor/Belgo e a empresa Villlares Metals dominaram a fronteira de eficiência, as demais empresas foram consideradas ineficientes, sendo que a V&M do Brasil obteve os menores índices de eficiência no setor. O DEA identificou, ainda focos de ineficiência e propôs alvos a serem atingidos pelas empresas em cada variável estudada com objetivo das mesmas alcançarem a fronteira de eficiência.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho avaliou a eficiência mastigatória na maloclusão do tipo Mordida Aberta Anterior por meio do Me-mastig, dispositivo que pode ser utilizado no sentido de se mensurar a eficiência da mastigação, prometendo ser uma alternativa prática, rápida e eficiente para o exame da mastigação. O grupo experimental compôs-se de 106 crianças na faixa etária dos 07 aos 11 anos, divididos em 2 grupos, da seguinte forma: (A) Grupo de Mordida Aberta Anterior, contendo 51 crianças e (B) Grupo Controle, com trespasse vertical normal contendo 55 crianças. Procurou-se avaliar a eficiência mastigatória das crianças dos dois grupos e comparar os resultados, que mostraram que a mastigação do grupo mordida aberta anterior foi menos eficiente quando comparada à do grupo controle; fato que se pode explicar pelas características faciais dos indivíduos portadores da maloclusão estudada e também características da própria maloclusão de mordida aberta anterior. Conclusões, a mordida aberta anterior é responsável por uma diminuição significativa da a Eficiência Mastigatória e o dispositivo Me-mastig se mostrou um método eficaz, de fácil utilização e não dispendioso que pode ser usado na clínica diária para se medir ou avaliar a Eficiência Mastigatória.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo retrospectivo foi comparar a eficiência oclusal do tratamento ortopédico com os aparelhos funcionais Regulador de Função Fränkel-2 e Bionator de Balters em um estágio de desenvolvimento dental diferente e comparar com um grupo controle. A amostra constituiu-se de 45 registros de documentações, pertencentes ao arquivo do programa de pós-graduação em Odontologia, área de concentração Ortodontia, da Universidade Metodista de São Paulo, com má oclusão inicial de Classe II bilateral, divisão 1, sendo 15 pacientes provenientes do grupo tratados com Bionator (grupo 1) com média de idade incial de 8,56 anos e com 80% dos casos em um estágio de desenvolvimento dental-2 (DS 2), 15 pacientes tratados com RF-2 (grupo 2) com média de idade inicial de 10,71 anos e com 80% dos casos em um estágio de desenvolvimento dental-3 (DS 3), e 15 pacientes controle (grupo 3) com media de idade incial de 10,03 anos e com estágio de desenvolvimento dental compatível com os grupos 1 e 2. Os grupos foram divididos em duas fases, de acordo com o período de avaliação: T1:início de tratamento e T2: final de tratamento, totalizando 90 pares de modelos. As avaliações oclusais foram realizadas em modelos de gesso, utilizando o Índice PAR com auxílio da régua PAR e de um paquímetro digital devidamente calibrado. Para comparação entre os três grupos foi utilizado Análise de Variância a um critério e em seguida o Teste de Tukey. A severidade da má oclusão (PAR Inicial) foi semelhante em ambos os grupos, porém, o PAR final apresentou uma diferença estatisticamente significante onde o percentual de redução do índice PAR para o grupo 1 foi de 20,72%, para o grupo 2 foi de 60,06% e no grupo 3 não houve alteração significante do valor do Índice PAR. O presente estudo conclui que o tratamento da má oclusão de Classe II, 1a divisão é mais eficiente quando iniciado no estágio de desenvolvimento dental 3 (DS 3) do que no estágio de desenvolvimento dental 2 (DS2). Além disso, ressalta-se a importância do uso mais prolongado do aparelho ortopédico, já que os pacientes do grupo 2 apresentaram melhores resultados oclusais.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The present work aims to demonstrate the link of the principle of efficiency - as expressed in the Constitution of 1988, by Constitutional Amendment No. 19 - with regulatory agencies, more specifically the ANATEL (National Telecommunications Agency). It also includes this principle’s importance to regulation - to monitor and manage public services - as well as when an activity will be considered efficient, keeping in mind that agencies are subjected to other principles of public administration. The increasing use of telephony has enabled further development of technologies that provide improvements in the provision of this service. The VoIP (Voice over IP), is nothing more than a technological breakthrough that directly targets the providers of conventional telephone service, both by modifying the business working for a long time with the same technology as the amount of new competitors’ dispute on market share. It also analyses the difficulty of understanding and definition of what is VoIP telephony, its growth and the threats that the traditional and mostly which is ANATEL’s role concerning this telephony technology. As regulator of the telecommunications service, ANATEL not yet regulated the voice telephony service using the IP protocol. What looks over the years is that ANATEL exercise its regulatory function to provide better conditions for competition among providers of VoIP and traditional telephone companies, obviously some difficulties are expected, given that VoIP is a technology that provides two services, through conventional telephony and using the internet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The city of Natal has a significant daylight availability, although it use isn’t systematically explored in schools architecture. In this context, this research aims to determine procedures for the analysis of the daylight performance in school design in Natal-RN. The method of analysis is divided in Visible Sky Factor (VSF), simulating and analyzing the results. The annual variation of the daylight behavior requires the adoption of dynamic simulation as data procedure. The classrooms were modelled in SketchUp, simulated in Daysim program and the results were assessed by means of spreadsheets in Microsoft Excel. The classrooms dimensions are 7.20mx 7.20m, with windows-to-wall-ratio (WWR) of 20%, 40% and 50%, and with different shading devices, such as standard horizontal overhang, sloped overhang, standard horizontal overhang with side view protection, standard horizontal overhang with a dropped edge, standard horizontal overhang with three horizontal louvers, double standard horizontal overhang, double standard horizontal overhang with three horizontal louvers, plus the use of shelf light in half the models with WWR of 40% and 50%. The data was organized in spreadsheets, with two intervals of UDI: between 300lux and 2000 lux and between 300lux and 3000lux. The simulation was performed with the weather file of 2009 to the city of NatalRN. The graphical outputs are illuminance curves, isolines of UDI among 300lux and 2000 lux and tables with index of occurrences of glare and to an UDI among 300lux 3000lux. The best UDI300-2000lux performance was evidenced to: Phase 1 (models with WWR of 20%), Phase 2 (models with WWR of 40% and 50% with light shelf). The best UDI300-3000lux performance was evidenced to: Phase 1 (models with WWR of 20% and 40% with light shelf) and Phase 2 (models with WWR of 40% and 50% with light shelf). The outputs prove that the daylight quality mainly depends on the shading system efficacy to avoid the glare occurrence, which determines the daylight discomfort. The bioclimatic recommendations of big openings with partial shading (with an opening with direct sunlight) resulted in illuminances level higher than the acceptable upper threshold. The improvement of the shading system percentage (from 73% to 91%) in medium-size of openings (WWR 40% and 50%) reduced or eliminate the glare occurrence without compromising the daylight zone depth (7.20m). The passive zone was determined for classrooms with satisfactory daylight performance, it was calculated the daylight zone depth rule-of-thumb with the ratio between daylight zone depth and the height of the window for different size of openings. The ratio ranged from 1.54 to 2.57 for WWR of 20%, 40% and 50% respectively. There was a reduction or elimination of glare in the passive area with light shelf, or with awning window shading.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Navigation, in both virtual and real environments, is the process of a deliberated movement to a specific place that is usually away from the origin point, and that cannot be perceived from it. Navigation aid techniques (TANs) have as their main objective help finding a path through a virtual environment to a desired location and, are widely used because they ease the navigation on these unknown environments. Tools like maps, GPS (Global Positioning System) or even oral instructions are real world examples of TAN usage. Most of the works which propose new TANs for virtual environments aim to analyze their impact in efficiency gain on navigation tasks from a known place to an unknown place. However, such papers tend to ignore the effect caused by a TAN usage over the route knowledge acquisition process, which is important on virtual to real training transfer, for example. Based on a user study, it was possible to confirm that TANs with different strategies affects the performance of search tasks differently and that the efficiency of the help provided by a TAN is not inversely related to the cognitive load of the technique’s aids. A technique classification formula was created. This formula utilizes three factors instead of only efficiency. The experiment’s data were applied to the formula and we obtained a better refinement of help level provided by TANs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work was performing effluent degradation studies by electrochemical treatment. The electrochemical oxidation (EO) hydroquinone (H2Q) was carried out in acid medium, using PbO2 electrode by galvanostatic electrolysis, applying current densities of 10 and 30 mA/cm2 . The concentration of H2Q was monitored by differential pulse voltammetry (DPV). The experimental results showed that the galvanostatic electrolysis process performance significantly depends on the applied current density, achieving removal efficiencies of 100% and 80 % and 10 applying 30 mA/cm2 , respectively. Furthermore, the electroanalytical technique was effective in H2Q be used as a detection method. In order to test the efficiency of PbO2 electrode, the electrochemical treatment was conducted in an actual effluent, leachate from a landfill. The liquid waste leachate (600ml effluent) was treated in a batch electrochemical cell, with or without addition of NaCl by applying 7 mA/cm2 . The efficiency of EO was assessed against the removal of thermo-tolerant coliforms, total organic carbon (TOC), total phosphorus and metals (copper, cobalt, chromium, iron and nickel). These results showed that efficient removal of coliforms was obtained (100%), and was further decrease the concentration of heavy metals by the cathode processes. However, results were not satisfactory TOC, achieving low total removal of dissolved organic load. Because it is considered an effluent complex were developed other tests with this effluent to monitor a larger number of decontamination parameters (Turbidity, Total Solids, Color, Conductivity, Total Organic Carbon (TOC) and metals (barium, chromium, lithium, manganese and Zinc), comparing the efficiency of this type of electrochemical treatment (EO or electrocoagulation) using a flow cell. In this assay was compared to electro streaming. In the case of the OE, Ti/IrO2-TaO5 was used as the anode, however, the electrocoagulation process, aluminum electrodes were used; applying current densities of 10, 20 and 30 mA/cm2 in the presence and absence of NaCl as an electrolyte. The results showed that EO using Ti/IrO2–TaO5 was anode as efficient when Cl- was present in the effluent. In contrast, the electrocoagulation flow reduces the dissolved organic matter in the effluent, under certain experimental conditions.