986 resultados para Ferramenta de cálculo
Resumo:
El presente estudio está dirigido al análisis del cálculo de volatilidad de la norma de liquidez estructural del sistema financiero ecuatoriano, tomando en consideración, que hace más de una década que se emitió la respectiva normativa, no ha sufrido cambios de fondo, no obstante de que el riesgo de liquidez al que se encuentran expuestas las instituciones financieras, y en particular la banca privada en el Ecuador materia de este estudio, es el de mayor sensibilidad e impacto en la sociedad. Dentro de este contexto, se realizó un análisis del marco teórico de la volatilidad, con la finalidad de identificar, las metodologías de valor en riesgo utilizadas, la forma de cálculo aplicado en países vecinos como Perú y Colombia y, la simulación de diferentes escenarios de horizontes de tiempo e intervalos utilizados para el cálculo de rendimientos, esto último, con el propósito de justificar un mayor requerimiento de liquidez, en resguardo de las amenazas a las que se encuentra expuesta la banca privada, por el retiro de recursos de los depositantes y de eventos que le pueden impactar adversamente del entorno económico; adicionalmente, se analizan las distribuciones de frecuencias de las series de activos líquidos y fuentes de fondeo para el período enero 2007 a septiembre 2014, con el propósito de identificar, si cumplen con la teoría de límite central, y descartar de que exista el fenómeno de heterocedasticidad condicionada, para ello necesariamente, hubo que aplicar los modelos Arima y Garch. Concluye el estudio, con la cuantificación de pérdidas esperadas, propuesto a través de un ajuste al cálculo de volatilidad, estimado a través de la Simulación de Montecarlo y de la incorporación de un riesgo adicional identificado en el rubro de activos líquidos y de aspectos que debería incorporar la normativa, a efectos de establecer umbrales de riesgo e indicadores que permitan realizar un monitoreo prudencial de los componentes de la liquidez de los bancos privados y establecer resguardos para épocas en decadencia.
Resumo:
O artigo apresenta uma ferramenta que auxilia na implementação de aplicações que empregam mais de uma linguagem de programação. Tais aplicações são ditas multilinguagens e quando as linguagens que as compõem representam diferentes paradigmas de programação, também são denominadas multiparadigmas. A técnica de programação multilinguagem permite que se utilize a linguagem de programação mais adequada à cada parte da aplicação. Em caso de equipes híbridas de programação podemos aproveitar o conhecimento de cada uma das equipes no uso das linguagens que irão compor a aplicação. A ferramenta descrita no artigo, implementada através de um conjunto de processos Win32, monitora e executa serviços de transferência de dados e controle entre os processos que compõem a aplicação. Através de uma interface gráfica o programador pode operá-la por meio de dois modos: desenvolvimento e execução. Dentre as áreas que poderiam se beneficiar com a a ferramenta, podemos citar a aplicação pedagógica relacionada ao ensino de paradigmas de programação, aplicações já existentes que necessitam estender-se com o emprego de outras linguagens de programação e aplicações cujos problemas envolvidos se constituem em diferentes paradigmas de programação.
Resumo:
El objetivo de esta investigación es registrar la producción académica reciente sobre el uso de las redes sociales como herramientas de comunicación, educación y aprendizaje en el área de la salud, con énfasis en la red social Facebook. La investigación fue recolectada sobre la base de datos del Portal de revistas de Capes, utilizando las palabras clave "Facebook, educación y salud", teniendo como criterio de búsqueda el uso de contenido de acceso abierto más actual, publicado durante el período comprendido entre 2005 y 2011. El estudio señaló 37 trabajos científicos sobre el tema estudiado, 2 brasileños y 35 internacionales.
Resumo:
Artigo disponível na íntegra em: http://www.fainc.com.br/interfainc/revista/inter01.pdf
Resumo:
Pretende este trabalho dar início ao estudo do processo de forjamento isotérmico de uma peça de uma liga de alumínio (Al Mg Sil) através de alguns parâmetros como curva de escoamento, influência de lubrificantes e modelos de cálculo de força. Para a análise da curva de escoamento da liga Al Mg Sil foram realizados testes alterando-se tanto a temperatura de ensaio como a velocidade de prensagem. Os resultados obtidos foram comparados com os resultados de duas referências bibliográficas. Em relação ao forjamento apresenta-se a ferramenta utilizada nos testes e descreve-se sobre as influências de alguns lubrificantes testados. Finalizando, mostra-se os resultados obtidos experimentalmente e os resultados obtidos através da aplicação de três modelos teóricos extraídos da literatura. Conclusões e sugestões para futuros trabalhos são também apresentados.
Resumo:
Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.
Resumo:
O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.
Resumo:
O objetivo principal deste trabalho é apresentar um método recursivo para a determinação da resposta forçada de sistema de segunda ordem na forma de uma íntegra de concolução, proveniente da utilização de propriedades de transição da resposta impulso de tais sistemas. Descrevem-se também diversos métodos analíticos e numéricos desenvolvidos para o cálculo da resposta forçada, bem como as limitações de cada método. As vantagens do método recursivo proposto são notáveis já que não é requerido o cálculo de autovalores das matrizes nem a redução à primeira ordem, e nem o uso de hipóteses adicionais sobre natureza dos coeficientes matriciais do sistema. Como aplicação do método proposto, considera-se o cálculo da resposta dinâmica de estruturas flexíveis sujeitas a excitações arbitrárias tais como terremotos.
Resumo:
A Avaliação de Desempenho é um meio necessário e importante para o crescimento e aprimoramento contínuos, sem medição não há como gerenciar as atividades e nem controlar os resultados dos esforços empreendidos. Seu principal objetivo é apontar se as empresas estão no caminho certo para atingir as metas estabelecidas. O impacto da Avaliação de Desempenho sobre a performance das empresas é um fato cada vez mais reconhecido no cenário empresarial, mas é necessário que ela seja utilizada como parte integrante das estratégias. O método tradicional é alvo de críticas por não contemplar aspectos intangíveis na gestão das empresas. A Avaliação de Desempenho costuma ser uma análise do passado. O Painel Estratégico, modelo proposto, possui forte sedimentação em informações tangíveis, baseadas no passado, porém, apodera-se de informações baseadas nas projeções de custos, no orçamento de metas, na contabilidade, e também em informações intangíveis como satisfação de clientes, para prospectar os resultados futuros. O grande diferencial proposto pelo Painel Estratégico é: avaliar o passado, mas principalmente prospectar o futuro através das simulações. O presente trabalho enfatiza a necessidade de uma ferramenta de Avaliação de Desempenho, integrada e dinâmica, através da comparação entre o método utilizado pela empresa e o Painel Estratégico, com perspectiva de utilização, relacionando os possíveis benefícios para a gestão da empresa.
Resumo:
A literatura sobre Teste de Software apresenta diversas estratégias e metodologias que definem critérios eficazes e automatizáveis para selecionar casos de teste capazes de detectar erros em softwares. Embora eficientes na descoberta de erros, as técnicas de seleção de casos de teste exigem que uma quantidade relativamente grande de testes seja realizada para satisfazer os seus critérios. Essa característica acarreta, em parte, um alto custo na atividade de teste, uma vez que, ao fim de cada teste deve-se verificar se o comportamento do software está ou não de acordo com os seus requisitos. Oráculo para teste de software é um mecanismo capaz de determinar se o resultado de um teste está ou não de acordo com os valores esperados. Freqüentemente, assume-se que o próprio projetista de teste é o responsável por esta tarefa. A automatização da atividade dos oráculos deu origem a oráculos automáticos, os quais são capazes de determinar o bom ou mau funcionamento do software a partir de uma fonte de informação confiável. Ao longo dos anos, a especificação formal vêm sendo largamente utilizada como fonte de informação para oráculos automáticos. Diversas estratégias vêm propondo geradores de oráculos baseados em especificações formais. Dentre as características marcantes dessas estratégias, cita-se aquelas que são aplicáveis a implementações derivadas a partir da estrutura da especificação e aquelas que geram oráculos a partir de técnicas específicas de seleção de casos. Essas características, entretanto, limitam a aplicação abrangente dos oráculos por restringi-los tanto a implementações derivadas diretamente de especificações como ao uso de técnicas específicas de seleção de casos de teste. Este trabalho apresenta um estudo sobre os geradores de oráculos para teste de software, identifica aspectos fundamentais que regem seu processo de construção e propõe uma estratégia que permite a geração de oráculos semi-automaticamente, mesmo para implementações não derivadas diretamente da estrutura da especificação. A estratégia proposta é, também, aplicável aos casos de teste derivados de qualquer técnica de seleção de casos de teste.
Resumo:
O presente trabalho apresenta um estudo do método de divisão-e-conquista para solução dos auto-sistemas de matrizes tridiagonais simétricas. Inicialmente, explanamos a parte teórica, e posteriormente, por meio de exemplos numéricos mostramos seu funcionamento. Para a realização deste estudo, utilizou-se o software Maple como ferramenta auxiliar. Realizamos comparações e análises dos auto-sistemas encontrados com as rotinas DSTEDC e DSTEQR do LAPACK, que utilizam respectivamente o método de divisão-e-conquista e o método QR e também comparamos estes com os resultados encontrados por nós. Verificamos por meio de testes os tempos, que as rotinas citadas, dispendem na resolução de alguns auto-sistemas. Os resultados apresentados mostram que o método de Divisão-e-Conquista é competitivo com o método tradicional, QR, para o cálculo de autovalores e autovetores de matrizes tridiagonais simétricas.