807 resultados para Cálculo de probabilidades
Resumo:
La Vía Augusta era una vía romana que iba desde Cádiz hasta Roma. Estaba compuesta de un ramal principal y de diversos ramales secundarios que en su mayoría, constituyen el sustrato de la actual red principal de carreteras del Mediterráneo en la Península Ibérica. A pesar de ello, no se conoce la localización exacta de muchos de esos ramales. El presente artículo muestra un estudio de por dónde deberían atravesar, posiblemente, las rutas romanas el Pirineo Oriental. Para el cálculo de estas rutas se aplica un algoritmo de mínimo coste que incorpora diversas variables y que tiene en cuenta que el desplazamiento se lleva a cabo a pie, y siguiendo la orografía del terreno. Se utilizan en el proceso las herramientas de análisis de costes y el cálculo de rutas óptimas que incorpora SEXTANTE. En particular se estudia y se modela la ruta de mínimo coste anisotrópica, es decir aquella en la que es importante la dirección del movimiento. El proceso consiste en analizar diversas rutas de mínimo coste, entendiendo como coste el esfuerzo en recorrerla. Se busca, por tanto, el camino que sea más sencillo de recorrer teniendo en cuenta principalmente la orografía del terreno (MDT), la pendiente y su orientación. Además, en el estudio se tienen en cuenta otras variables como los usos de suelo, la red hidrográfica, la red de comunicaciones romana conocida, así como la ubicación de puentes y asentamientos romanos entre otros. Las diferentes rutas obtenidas se contrastan con las rutas propuestas por los historiadores y arqueólogos
Resumo:
Este trabalho tem como objectivo avaliar se os valores de dose recebida pelos doentes que realizam exames de Tomografia Computorizada (TC) Abdómen-pélvicos em dois hospitais da grande Lisboa estão de acordo com os Níveis de Referência de Diagnóstico Europeus (NRD). Foram comparadas também as unidades dosimétricas de exames realizados com corrente modelada e de exames realizados com corrente contínua em ambos os hospitais. O estudo consistiu na recolha de dados de 200 exames de TC Abdómen-pélvicos, 100 em cada hospital. No Hospital A, a média dos valores de DLPfoi 562,34 mGy.cm e a média dos valores de CTDIvol foi 12,06 mGy. No Hospital B, a média dos valores DLPe CTDIvol foi 767,14 mGy.cm e 15,02 mGy, respectivamente. No total da nossa amostra, concluiu-se que em nenhum exame os valores de unidades dosimétricas ultrapassam os valores dos NRD. Verificou-se também que os exames realizados no Hospital B implicam em média uma maior dose de radiação ionizante para o doente.
Resumo:
A falta de pesquisas ao nível do desenvolvimento de competências matemáticas básicas em crianças com SD, a par da sua importância na aquisição de aprendizagens úteis para a vida quotidiana destes indivíduos, são os principais motivos pelos quais este trabalho de investigação-ação propôs observar e analisar qual o contributo de um material multissensorial – Numicon – no desenvolvimento de competências relacionadas com o cálculo nestas crianças. Para tal, foram promovidas algumas sessões de trabalho, com este material, com uma criança com SD em idade escolar, planificadas a partir da identificação das suas capacidades e dificuldades matemáticas iniciais através de entrevistas e de uma avaliação diagnóstica. No final da intervenção, foi feita uma reavaliação da aluna e uma reflexão sobre a análise comparativa dos resultados obtidos em ambas as avaliações. Verificou-se que, apesar de curta, esta intervenção conduziu a aluna a evidentes progressos no que respeita a alguns dos conceitos trabalhados, o que leva a crer que a utilização deste material manipulável, ao permitir a concretização de conceitos abstratos, facilita a aprendizagem de ideias matemáticas e a aquisição de competências essenciais para uma vida quotidiana independente e ativa. No final do trabalho são sugeridas algumas possibilidades de desdobramento deste estudo para futuras pesquisas.
Resumo:
El objetivo de la presente tesis es establecer una metodología apropiada que logre determinar el valor de la prima ajustada por riesgo que debe aportar una IFI, la cual deberá tener la connotación de estar fijada entre 0 y 3,5 por mil anual. Rango definido por la Ley de Creación de la Red de Seguridad Financiera. Para desarrollar la metodología se ha considerado pertinente dividir el estudio en cuatro capítulos: El primero tiene como propósito revisar los hechos históricos de mayor relevancia acaecidos entre 1995 y 1998, referentes al ámbito económico - político y financiero del país, a fin de entender las razones e identificar las posibles alertas de riesgo por las cuales varias instituciones financieras se liquidaron. Así como también la normativa expedida en este tema. En el segundo capítulo. Sobre la base de los indicadores financieros desarrollados se procedió a agruparlos conforme el método CAMEL; y, se determinó el impacto de éstos en la salud financiera de la IFI. Posteriormente se estableció una calificación cualitativa definida como vulnerabilidad financiera. La finalidad del tercer capítulo es el de categorizar a una IFI de acuerdo a su mayor o menor nivel de vulnerabilidad financiera, para lo cual se seleccionaron como variables dependientes la calificación de riesgos entregada por las empresas calificadoras a la Superintendencia de Bancos y Seguros y, la calificación realizada por el autor de la presente tesis; y, como variables independientes los indicadores CAMEL y variables macroeconómicas. En el cuarto capítulo se definió el valor de la prima ajustada por riesgo. Valor resultante de aplicar la probabilidad obtenida a través del modelo logístico y de la relación número de depositantes para la población total.
Resumo:
Esta tesis analiza la normativa tributaria actual respecto al cálculo del Impuesto a la Renta para sociedades en el Ecuador y tiene como objetivo mostrar los efectos negativos de la misma respecto a la aplicación de un sin número de deducciones y exenciones para determinar el impuesto, además de la complejidad que conlleva su cálculo. Como resultado del análisis se entrega a manera de ejercicio académico una propuesta que busca disminuir los efectos negativos del actual sistema de cálculo, además de lograr una simplicidad en la administración del impuesto y ahorro de recursos tanto para la Administración Tributaria como para los sujetos pasivos, así como un incremento en la recaudación que a su vez contribuirá a la satisfacción de necesidades de la colectividad.
Resumo:
El presente estudio está dirigido al análisis del cálculo de volatilidad de la norma de liquidez estructural del sistema financiero ecuatoriano, tomando en consideración, que hace más de una década que se emitió la respectiva normativa, no ha sufrido cambios de fondo, no obstante de que el riesgo de liquidez al que se encuentran expuestas las instituciones financieras, y en particular la banca privada en el Ecuador materia de este estudio, es el de mayor sensibilidad e impacto en la sociedad. Dentro de este contexto, se realizó un análisis del marco teórico de la volatilidad, con la finalidad de identificar, las metodologías de valor en riesgo utilizadas, la forma de cálculo aplicado en países vecinos como Perú y Colombia y, la simulación de diferentes escenarios de horizontes de tiempo e intervalos utilizados para el cálculo de rendimientos, esto último, con el propósito de justificar un mayor requerimiento de liquidez, en resguardo de las amenazas a las que se encuentra expuesta la banca privada, por el retiro de recursos de los depositantes y de eventos que le pueden impactar adversamente del entorno económico; adicionalmente, se analizan las distribuciones de frecuencias de las series de activos líquidos y fuentes de fondeo para el período enero 2007 a septiembre 2014, con el propósito de identificar, si cumplen con la teoría de límite central, y descartar de que exista el fenómeno de heterocedasticidad condicionada, para ello necesariamente, hubo que aplicar los modelos Arima y Garch. Concluye el estudio, con la cuantificación de pérdidas esperadas, propuesto a través de un ajuste al cálculo de volatilidad, estimado a través de la Simulación de Montecarlo y de la incorporación de un riesgo adicional identificado en el rubro de activos líquidos y de aspectos que debería incorporar la normativa, a efectos de establecer umbrales de riesgo e indicadores que permitan realizar un monitoreo prudencial de los componentes de la liquidez de los bancos privados y establecer resguardos para épocas en decadencia.
Resumo:
O tema desta dissertação de mestrado é o estudo da Customização em Massa (CM) com vistas à elaboração de um índice que meça a viabilidade da implantação de sistemas de manufatura customizados. A CM vem sendo identificada por um número crescente de organizações como uma importante estratégia competitiva. A etapa inicial desta dissertação foi a revisão bibliográfica sobre CM, Flexibilidade na Manufatura e Desdobramento da Função Qualidade (QFD), que constituem os seus temas principais. Na segunda etapa foi elaborada a metodologia que propõe o cálculo de um indicador de viabilidade de customização de produtos manufaturados. Como ferramenta para a elaboração deste índice, utilizou-se o QFD. Através do emprego da metodologia proposta é possível listar e ponderar as demandas de customização pelos clientes e, então, avaliar a viabilidade de se customizar os elementos desejados pelo cliente em termos de produto e processo (viabilidade tecnológica e flexibilidade de manufatura). Na última etapa a metodologia proposta nesta dissertação foi aplicada através de um estudo de caso, permitindo-se o esclarecimento da realização das suas etapas.
Resumo:
O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.
Resumo:
O objetivo principal deste trabalho é apresentar um método recursivo para a determinação da resposta forçada de sistema de segunda ordem na forma de uma íntegra de concolução, proveniente da utilização de propriedades de transição da resposta impulso de tais sistemas. Descrevem-se também diversos métodos analíticos e numéricos desenvolvidos para o cálculo da resposta forçada, bem como as limitações de cada método. As vantagens do método recursivo proposto são notáveis já que não é requerido o cálculo de autovalores das matrizes nem a redução à primeira ordem, e nem o uso de hipóteses adicionais sobre natureza dos coeficientes matriciais do sistema. Como aplicação do método proposto, considera-se o cálculo da resposta dinâmica de estruturas flexíveis sujeitas a excitações arbitrárias tais como terremotos.
Resumo:
O presente trabalho objetivou a realização de um estudo de caso sobre o tema risco de crédito. Avaliou-se o risco de crédito sob dois vetores: o risco esperado e o risco não esperado. Procede-se então a uma revisão dos principais modelos de gestão da carteira de crédito destacando-se suas características, aplicações e limitações. O modelo da autarquia é comparado aos modelos utilizados pelo mercado, os quais são apresentados em grau crescente de complexidade. O modelo de mercado utilizado neste trabalho foi constituído a partir do credit scoring, uma ferramenta estatística de pontuação de créditos derivada da aplicação da técnica estatística denominada Análise Discriminante. Este modelo resultou na boa discriminação dos clientes com necessidades emergenciais de empréstimos (bons clientes) dos clientes com situação financeira precária (maus clientes) possibilitando uma boa prevenção da probabilidade de inadimplência. A partir das classes de risco constituídas foi possível a aplicação da análise de portfolio para o cálculo da perda potencial na carteira. Assim, por meio de um estudo de caso, realizado em uma instituição financeira brasileira foram comparadas as medidas de capital e de risco de crédito estabelecidos pelo Banco Central do Brasil, através das resoluções 2.099/94 e 2.682/99, com as medidas calculadas a partir de um modelo de credit scoring. Essa comparação resultou na avaliação da eficácia da norma quanto à mensuração do risco em carteiras de crédito. Os resultados apontam o conservadorismo da autarquia no cálculo desses saldos, penalizando a instituição financeira analisada ao exigir a constituição de provisão e patrimônio líquido mínimo acima do que seria necessário. O risco calculado a partir do modelo de credit scoring para uma carteira de crédito direto ao consumidor foi cerca de 20% inferior aos montantes calculados pelo Banco Central do Brasil.
Resumo:
A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.
Resumo:
Combinando métodos computacionais da eletrostática e dinâmica molecular, este trabalho teve como objetivo descrever processos de solvatação em sistemas quimicamente importantes. Foram obtidas propriedades termodinâmicas necessárias para o entendimento do processo de solvatação. Estão descritos e testados modelos para descrever a interação soluto-solvente, possibilitando, assim, aprimorar a descrição físico-química dos processos de solvatação. Utilizaram-se programas desenvolvidos em nosso grupo e programas comerciais que permitem os cálculos de dinâmica molecular e química quântica. Uma nova abordagem para o cálculo de energia livre de solvatação foi desenvolvida proporcionando a obtenção acurada e eficiente dessa propriedade, dentro do enfoque da dinâmica molecular. Nessa nova abordagem, novas metodologias para a geração de cavidades moleculares foram propostas e avaliadas. As energias livres de solvatação obtidas estão em boa concordância com os valores experimentais.
Resumo:
Neste trabalho é realizada uma análise crítica sobre as formas de dimensionamento de estruturas de chapa dobrada, apresentando as metodologias utilizadas pelas principais normas modernas de cálculo, juntamente com metodologias não convencionais. Para realizar dita análise concentrou se a atenção num tipo de perfil simples (perfis não enrijecidos), e submetido a dois tipos de carregamento: carga axial concentrada no centro de gravidade; barra trabalhando como viga em balanço com carga aplicada no centro de corte. Foi realizado um estudo comparativo, entre as normas de cálculo NBR 14762, AISI e Eurocode 3, com outros métodos de dimensionamento, que são: o método direto desenvolvido por Schafer (1997); e duas formulações de análise por elementos finitos: uma considerando a carga de flambagem elástica; e outra empregando uma análise não linear física e geométrica, para perfis submetidos à compressão centrada e à flexão. Neste trabalho realizou-se um estudo paramétrico, registrando em gráficos e tabelas a influência de parâmetros tais como: comprimento do elemento analisado; da relação entre a alma e a mesa; da relação alma e a espessura. Através destes gráficos é possível observar as diversas formas de colapso (flambagem local, flambagem global, colapso plástico entre outras) se apresentando como críticas e interagindo entre si. Realizaram-se também dois experimentos de perfis submetidos à flexão, com o objetivo de verificar a grandeza dos valores obtidos através das diversas metodologias de cálculo. Para aplicação prática dos conceitos e métodos apresentados fez-se a verificação do dimensionamento de uma estrutura utilizada como prateleira em um almoxarifado de uma empresa metalúrgica situada na grande Porto Alegre, a qual apresentou flambagem lateral de seus elementos horizontais.
Resumo:
O custo unitário básico (CUB), foi criado em função da Lei n° 4.591 (BRASIL, 1964), que encarregou a Associação Brasileira de Normas Técnicas (ABNT), através do Banco Nacional de Habitação (BNH), de definir critérios e normas para cálculo de custos unitários de construção pelos Sindicatos das Indústrias da Construção Civil (SINDUSCON) nos Estados da Federação, para uso dos incorporadores imobiliários nas tratativas iniciais quando da viabilização junto ao Sistema Financeiro de Habitações. Com a publicação da Norma Brasileira NB 140 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1965), ficou definido a metodologia de cálculo dos CUB para projetos-padrão de prédios habitacionais. A finalidade destes CUB é auxiliar na avaliação dos custos de incorporações imobiliárias, antes do lançamento, quando os incorporadores não dispõem dos projetos completos. A metodologia de cálculo destes CUB sofreu uma única reformulação ao longo destes quase quarenta anos, quando da edição da NBR 12.721 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1992). Em 1999, recebeu anexo complementar, que não fez qualquer atualização na metodologia de cálculo dos CUB, apenas estendeu a apuração destes custos para edifícios comerciais, galpões industriais e casas populares Este trabalho realizou a verificação e validação do modelo de cálculo dos CUB para prédios habitacionais, fazendo comparações entre os valores apurados pela técnica recomendada na Norma e os obtidos diretamente nos orçamentos discriminados que deram origem à metodologia de cálculo dos CUB, utilizando preços unitários de insumos no período de janeiro de 1993 a dezembro de 2000. Ao final concluiu-se que o modelo de cálculo dos CUB necessita de uma profunda reformulação para readquirir a propriedade fundamental de sua caracterização que é a de substituir o cálculo dos custos com o uso do orçamento discriminado dos projetos-padrão.