885 resultados para allocation procedure


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Elétrica - FEIS

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ABSTRACT: The femtocell concept aims to combine fixed-line broadband access with mobile telephony using the deployment of low-cost, low-power third and fourth generation base stations in the subscribers' homes. While the self-configuration of femtocells is a plus, it can limit the quality of service (QoS) for the users and reduce the efficiency of the network, based on outdated allocation parameters such as signal power level. To this end, this paper presents a proposal for optimized allocation of users on a co-channel macro-femto network, that enable self-configuration and public access, aiming to maximize the quality of service of applications and using more efficiently the available energy, seeking the concept of Green networking. Thus, when the user needs to connect to make a voice or a data call, the mobile phone has to decide which network to connect, using the information of number of connections, the QoS parameters (packet loss and throughput) and the signal power level of each network. For this purpose, the system is modeled as a Markov Decision Process, which is formulated to obtain an optimal policy that can be applied on the mobile phone. The policy created is flexible, allowing different analyzes, and adaptive to the specific characteristics defined by the telephone company. The results show that compared to traditional QoS approaches, the policy proposed here can improve energy efficiency by up to 10%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A gestão por competências destacou-se no cenário das organizações públicas brasileiras através do Decreto nº 5.707/2006 como instrumento da política de desenvolvimento dos servidores da administração pública direta, autárquica e fundacional enfatizando a capacitação orientada para o desenvolvimento do conjunto de conhecimentos, habilidades e atitudes necessárias ao desempenho das funções dos servidores, visando ao alcance dos objetivos da instituição. Ocorre que desde 2001, conforme relato da Escola Nacional de Administração Pública - ENAP, dezesseis organizações públicas já praticavam preceitos da gestão por competências, e utilizavam além da capacitação outros processos relacionados a área de gestão de pessoas previstos na teoria sobre gestão por competências. Utilizando a Teoria do Desenvolvimento Organizacional, com método comparativo, estratégia estudo de caso múltiplo e análise documental do período de dez anos, de três organizações, CEF,e TCU, pertencentes ao grupo do relato ENAP, foram constatadas as hipóteses de que cada organização escolheu o procedimento mais adequado a sua estrutura e cultura organizacional para implantar a gestão por competências e que esta teve o processo de implantação em consonância com as respectivas áreas de planejamento e ainda, para implementar mudanças utilizando a gestão por competências não é necessário finalizar o mapeamento de competências individuais de todos os servidores das organizações. As mudanças podem iniciar, após a definição da missão, valores, objetivos estratégicos, visão de futuro (mapeamento de competências organizacionais). Concluindo que inexiste um modelo universal para implantação da gestão por competências, pois, cada organização é influenciada de forma diferente pela política, clima e cultura organizacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aim of this study was to develop a procedure based on Gompertz function to determine the efficiency of utilization of amino acid. The procedure was applied to determine the efficiency of utilization of dietary lysine, methionine+cystine and threonine by growing pullets and based on the efficiencies were estimated the requirements for the growth phase of birds. The Gompertz function was fitted to the data of feed intake, body weight, feather-free body protein weight and feather protein weight of four strains of laying hens in the growth phase. The rates of consumption and daily protein deposition (PD) were calculated. The amino acid deposition was obtained by multiplying the PD by the amino acid concentration in feather protein and feather-free body protein. The results showed that the efficiency of utilization of amino acid decreased with maturity and, conversely, there was a proportional increase of the requirement per kg of weight gain. The procedure based on the Gompertz function to determine the efficiency of utilization of amino acid proved to be suitable to evaluate the efficiency of utilization of amino acid and can be a useful tool to diagnose the effectiveness of the nutritional management, aiding in decision-making on the nutritional management.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ameloblastoma is a relatively uncommon benign odontogenic tumor, which is locally aggressive and has a high tendency to recur, despite its benign histopathologic features. This pathology can be classified into 4 groups: unicystic, solid or multicystic, peripheral, and malignant. There are 3 variants of unicystic ameloblastoma, as luminal, intraluminal, and mural. Therefore, in mural ameloblastoma, the fibrous wall of the cyst is infiltrated with tumor nodules, and for this reason it is considered the most aggressive variant of unicystic ameloblastomas. Various treatment techniques for ameloblastomas have been proposed, which include decompression, enucleation/curettage, sclerotizing solution, cryosurgery, marginal resection, and aggressive resection. Literature shows treatment of this lesion continues to be a subject of intense interest and some controversy. Thus, the authors aimed to describe a case of a mural unicystic ameloblastoma of follicular subtype in a 19-year-old subject who was successfully treated using conservative approaches, as decompression. The patient has been followed up for 3 years, and has remained clinically and radiographically disease-free.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Purpose: This study evaluated and compared bone heating, drill deformation, and drill roughness after several implant osteotomies in the guided surgery technique and the classic drilling procedure. Materials and Methods: The tibias of 20 rabbits were used. The animals were divided into a guided surgery group (GG) and a control group (CG); subgroups were then designated (G0, G1, G2, G3, and G4, corresponding to drills used 0, 10, 20, 30 and 40 times, respectively). Each animal received 10 sequential osteotomies (5 in each tibia) with each technique. Thermal changes were quantified, drill roughness was measured, and the drills were subjected to scanning electron microscopy. Results: Bone temperature generated by drilling was significantly higher in the GG than in the CG. Drill deformation in the GG and CG increased with drill use, and in the CG a significant difference between GO and groups G3 and G4 was observed. In the GG, a significant difference between GO and all other groups was found. For GG versus CG, a significant difference was found in the 40th osteotomy. Drill roughness in both groups was progressive in accordance with increased use, but there was no statistically significant difference between subgroups or between GG and CG overall. Conclusion: During preparation of implant osteotomies, the guided surgery technique generated a higher bone temperature and deformed drills more than the classic drilling procedure. The increase in tissue temperature was directly proportional to the number of times drills were used, but neither technique generated critical necrosis-inducing temperatures. Drill deformation was directly proportional to the number of times the drills were used. The roughness of the drills was directly proportional to the number of reuses in both groups but tended to be higher in the GG group.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Topological optimization problems based on stress criteria are solved using two techniques in this paper. The first technique is the conventional Evolutionary Structural Optimization (ESO), which is known as hard kill, because the material is discretely removed; that is, the elements under low stress that are being inefficiently utilized have their constitutive matrix has suddenly reduced. The second technique, proposed in a previous paper, is a variant of the ESO procedure and is called Smooth ESO (SESO), which is based on the philosophy that if an element is not really necessary for the structure, its contribution to the structural stiffness will gradually diminish until it no longer influences the structure; its removal is thus performed smoothly. This procedure is known as "soft-kill"; that is, not all of the elements removed from the structure using the ESO criterion are discarded. Thus, the elements returned to the structure must provide a good conditioning system that will be resolved in the next iteration, and they are considered important to the optimization process. To evaluate elasticity problems numerically, finite element analysis is applied, but instead of using conventional quadrilateral finite elements, a plane-stress triangular finite element was implemented with high-order modes for solving complex geometric problems. A number of typical examples demonstrate that the proposed approach is effective for solving problems of bi-dimensional elasticity. (C) 2014 Elsevier Ltd. All rights reserved.