871 resultados para Déficit financeiro - Modelos matemáticos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Economia - FCLAR

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Transtorno do Déficit de Atenção e Hiperatividade (TDAH) é um fenômeno estudado em diversos países, composto de sintomas de desatenção, imperatividade e impulsividade, ocorre na infância podendo persistir até a idade adulta. Este transtorno causa prejuízos nas áreas acadêmicas, sociais e ocupacionais, reduz a auto-estima, pode evoluir para delinqüência, uso de drogas e álcool, gera estresse nas famílias, tem alto custo financeiro e impacto social. O diagnóstico é feito com base em critérios clínicos adotados pelo DSM IV e o tratamento indicado combina farmacoterapia e psicoterapia. Considerando-se que TDAH é um transtorno de desenvolvimento de autocontrole e que estudos sugerem que autocontrole pode ser adquirido em condições de treino, torna-se relevante a realização de pesquisas aplicadas utilizando princípios da análise do comportamento, para minimizar prejuízos e contribuir para melhoria de qualidade de vida de portadores de TDAH. Este estudo objetivou verificar a eficácia do uso de esquemas de reforçamento diferencial de outro comportamento (DRO) e de atraso de reforço na instalação e/ ou aumento de comportamentos de autocontrole em um menino de 9 anos diagnosticado com TDAH, que faz uso de medicamento. O participante foi exposto ao procedimento de treino de autocontrole, realizou tarefas, durante as quais, caso se comportasse como combinado, recebia reforço. Ao final de cada sessão, trocava os reforços por brinquedos e poderia escolher reservá-los para obter reforços de maior valor. O procedimento foi dividido em sete etapas: (1) entrevista com a neuropediatra; (2) análise do prontuário e convocação; (3) entrevista inicial com responsáveis; (4) visita à escola e entrevista com professores; (5) sessões de observação direta (linha de base, habituação às regras, instalação, manutenção, fading e avaliação da estabilidade); (6) followp-up; e (7) encerramento. Realizaram-se 18 sessões de observação direta, gravadas em vídeo e transcritas para a elaboração de um sistema de categorias de comportamentos para análise. Os resultados foram analisados por meio da comparação entre relatos de entrevistas, resultados de instrumentos padronizados e categorias de comportamentos observados. Identificou-se que os comportamentos de autocontrole do participante se ampliaram e generalizaram para outros contextos, durante as sessões e em domicílio, conforme os relatos dos pais e da professora da escola atual, e registro de observação direta da terapeuta-pesquisadora. Verificou-se que a utilização de esquema de reforçamento DRO com disponibilidade limitada pode favorecer o aumento de comportamentos de autocontrole e generalizações em crianças com TDAH.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Agronomia (Produção Vegetal) - FCAV

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La teledetección o percepción remota (remote sensing) es la ciencia que abarca la obtención de información (espectral, espacial, temporal) sobre un objeto, área o fenómeno a través del análisis de datos adquiridos por un dispositivo que no está en contacto con el elemento estudiado. Los datos obtenidos a partir de la teledetección para la observación de la superficie terrestre comúnmente son imágenes, que se caracterizan por contar con un sinnúmero de aplicaciones que están en continua evolución, por lo cual para solventar los constantes requerimientos de nuevas aplicaciones a menudo se proponen nuevos algoritmos que mejoran o facilitan algún proceso en particular. Para el desarrollo de dichos algoritmos, es preciso hacer uso de métodos matemáticos que permitan la manipulación de la información con algún fin específico. Dentro de estos métodos, el análisis multi-resolución se caracteriza por permitir analizar una señal en diferentes escalas, lo que facilita trabajar con datos que puedan tener resoluciones diferentes, tal es el caso de las imágenes obtenidas mediante teledetección. Una de las alternativas para la implementación de análisis multi-resolución es la Transformada Wavelet Compleja de Doble Árbol (DT-CWT). Esta transformada se implementa a partir de dos filtros reales y se caracteriza por presentar invariancia a traslaciones, precio a pagar por su característica de no ser críticamente muestreada. A partir de las características de la DT-CWT se propone su uso en el diseño de algoritmos de procesamiento de imagen, particularmente imágenes de teledetección. Estos nuevos algoritmos de procesamiento digital de imágenes de teledetección corresponden particularmente a fusión y detección de cambios. En este contexto esta tesis presenta tres algoritmos principales aplicados a fusión, evaluación de fusión y detección de cambios en imágenes. Para el caso de fusión de imágenes, se presenta un esquema general que puede ser utilizado con cualquier algoritmo de análisis multi-resolución; este algoritmo parte de la implementación mediante DT-CWT para luego extenderlo a un método alternativo, el filtro bilateral. En cualquiera de los dos casos la metodología implica que la inyección de componentes pueda realizarse mediante diferentes alternativas. En el caso del algoritmo de evaluación de fusión se presenta un nuevo esquema que hace uso de procesos de clasificación, lo que permite evaluar los resultados del proceso de fusión de forma individual para cada tipo de cobertura de uso de suelo que se defina en el proceso de evaluación. Esta metodología permite complementar los procesos de evaluación tradicionales y puede facilitar el análisis del impacto de la fusión sobre determinadas clases de suelo. Finalmente, los algoritmos de detección de cambios propuestos abarcan dos enfoques. El primero está orientado a la obtención de mapas de sequía en datos multi-temporales a partir de índices espectrales. El segundo enfoque propone la utilización de un índice global de calidad espectral como filtro espacial. La utilización de dicho filtro facilita la comparación espectral global entre dos imágenes, esto unido a la utilización de umbrales, conlleva a la obtención de imágenes diferencia que contienen la información de cambio. ABSTRACT Remote sensing is a science relates to information gathering (spectral, spatial, temporal) about an object, area or phenomenon, through the analysis of data acquired by a device that is not in contact with the studied item. In general, data obtained from remote sensing to observe the earth’s surface are images, which are characterized by having a number of applications that are constantly evolving. Therefore, to solve the constant requirements of applications, new algorithms are proposed to improve or facilitate a particular process. With the purpose of developing these algorithms, each application needs mathematical methods, such as the multiresolution analysis which allows to analyze a signal at different scales. One of the options is the Dual Tree Complex Wavelet Transform (DT-CWT) which is implemented from two real filters and is characterized by invariance to translations. Among the advantages of this transform is its successful application in image fusion and change detection areas. In this regard, this thesis presents three algorithms applied to image fusion, assessment for image fusion and change detection in multitemporal images. For image fusion, it is presented a general outline that can be used with any multiresolution analysis technique; this algorithm is proposed at first with DT-CWT and then extends to an alternative method, the bilateral filter. In either case the method involves injection of components by various means. For fusion assessment, the proposal is focused on a scheme that uses classification processes, which allows evaluating merger results individually for each type of land use coverage that is defined in evaluation process. This methodology allows complementing traditional assessment processes and can facilitate impact analysis of the merger on certain kinds of soil. Finally, two approaches of change detection algorithms are included. The first is aimed at obtaining drought maps in multitemporal data from spectral indices. The second one takes a global index of spectral quality as a spatial filter. The use of this filter facilitates global spectral comparison between two images and by means of thresholding, allows imaging containing change information.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este estudio, englobado dentro del campo de la investigación operacional en aeropuertos, se considera el problema de la optimización de la secuencia de descontaminación de nieve de los tramos que componen el área de maniobras de un aeropuerto, denominado RM-AM. Este problema se enfrenta a la optimización de recursos limitados para retirar la nieve de las calles de rodadura y pistas, dejándolas en un estado aceptable para la operación de aeronaves. El campo de vuelos se divide en subconjuntos de tramos significativos para la operación y se establecen tiempos objetivo de apertura al tráfico de aeronaves. Se desarrollan varios algoritmos matemáticos en los que se proponen distintas funciones objetivo, como son la hora de finalización del proceso, la suma de las horas de finalización de cada tramo, o el retraso entre la hora estimada y la hora de finalización. Durante este proceso, se van introduciendo restricciones operativas relativas al cumplimiento de objetivos operativos parciales aplicados a las zonas de especial interés, o relativas a la operación de los equipos de descontaminación. El problema se resuelve mediante optimización basada en programación lineal. Los resultados de las pruebas computacionales se hacen sobre cinco modelos de área de maniobras en los que va creciendo la complejidad y el tamaño. Se comparan las prestaciones de los distintos algoritmos. Una vez definido el modelo matemático para la optiamización, se propone una metodología estructurada para abordar dicho problema para cualquier área de manobras. Se define una estrategia en la operación. Se acomete el área de maniobras por zonas, con la condición de que los subconjuntos de tramos significativos queden englobados dentro de una sola de estas zonas. El problema se resuelve mediante un proceso iterativo de optimización aplicado sucesivamente a las zonas que componen el área de maniobras durante cada iteración. Se analiza la repercusión de los resultados en los procesos DMAN, AMAN y TP, para la integración de los resultados en el cálculo de TSAT y EBIT. El método se particulariza para el caso del área de maniobras del Aeropuerto Adolfo Suárez Madrid Barajas. ABSTRACT This study, which lies within the field of operations research in airports, considers the optimisation of the sequence for clearing snow from stretches of the manoeuvring area of an airport, known as RM-AM. This issue involves the optimisation of limited resources to remove snow from taxiways and runways thereby leaving them in an acceptable condition for operating aircraft. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are established during which these are open to aircraft traffic. The study contains several mathematical models each with different functions, such as the end time of the process, the sum of the end times of each stretch, and gap between the estimated and the real end times. During this process, we introduce different operating restrictions on partial fulfilment of the operational targets as applied to zones of special interest, or relating to the operation of the snow-clearing machines. The problem is solved by optimisation based on linear programming. Computational tests are carried out on five distinct models of the manoeuvring area, which cover increasingly complex situations and larger areas. The different algorithms are then compared to one other. Having defined the mathematical model for the optimisation, we then set out a structured methodology to deal with any type of manoeuvring area. In other words, we define an operational strategy. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are set at which these are to be open to aircraft traffic. The manoeuvring area is also divided into zones, with the condition that the subsets of significant stretches lie within just one of these zones. The problem is solved by an iterative optimisation process based on linear programming applied successively to the zones that make up the manoeuvring area during each iteration. The impact of the results on DMAN, AMAN and TP processes is analysed for their integration into the calculation of TSAT and EBIT. The method is particularized for the case of the manoeuvring area of Adolfo Suarez Madrid - Barajas Airport.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Um dos aspectos regulatórios fundamentais para o mercado imobiliário no Brasil são os limites para obtenção de financiamento no Sistema Financeiro de Habitação. Esses limites podem ser definidos de forma a aumentar ou reduzir a oferta de crédito neste mercado, alterando o comportamento dos seus agentes e, com isso, o preço de mercado dos imóveis. Neste trabalho, propomos um modelo de formação de preços no mercado imobiliário brasileiro com base no comportamento dos agentes que o compõem. Os agentes vendedores têm comportamento heterogêneo e são influenciados pela demanda histórica, enquanto que os agentes compradores têm o seu comportamento determinado pela disponibilidade de crédito. Esta disponibilidade de crédito, por sua vez, é definida pelos limites para concessão de financiamento no Sistema Financeiro de Habitação. Verificamos que o processo markoviano que descreve preço de mercado converge para um sistema dinâmico determinístico quando o número de agentes aumenta, e analisamos o comportamento deste sistema dinâmico. Mostramos qual é a família de variáveis aleatórias que representa o comportamento dos agentes vendedores de forma que o sistema apresente um preço de equilíbrio não trivial, condizente com a realidade. Verificamos ainda que o preço de equilíbrio depende não só das regras de concessão de financiamento no Sistema Financeiro de Habitação, como também do preço de reserva dos compradores e da memória e da sensibilidade dos vendedores a alterações na demanda. A memória e a sensibilidade dos vendedores podem levar a oscilações de preços acima ou abaixo do preço de equilíbrio (típicas de processos de formação de bolhas); ou até mesmo a uma bifurcação de Neimark-Sacker, quando o sistema apresenta dinâmica oscilatória estável.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Alterações nos regulamentos, mudanças no comportamento do consumidor e potenciais ganhos de competitividade são alguns dos motivos citados por gestores como motivadores para a adoção de várias práticas de gestão ambiental. Estas práticas afetam, de acordo com outros estudos, os desempenhos ambiental e financeiro das empresas. No entanto, práticas diferentes afetam de forma diferente os desempenhos mencionados, ou ainda algumas práticas podem ser usadas de forma propagandísticas, podendo afetar o desempenho financeiro, mas não necessariamente o desempenho ambiental.. Assim, este trabalho tem como objetivo verificar se há relação entre as práticas de gestão ambiental (aqui divididas em \'práticas de planejamento e organização\', \'práticas operacionais\' e \'práticas comunicacionais\') utilizadas pelas empresas e os desempenhos ambiental e financeiro destas por meio da análise de empresas do setor químico brasileiro, utilizando modelagem de equações estruturais (Structural Equation Modeling - SEM) e uma survey para coleta dos dados subjetivoprimários (percepção dos gestores). Para tanto, foi desenvolvido um modelo teórico e construído um diagrama de caminhos de relações causais que foi convertido em um conjunto de modelos estruturais e de mensuração. Para testar o modelo proposto, um teste empírico foi aplicado em empresas do setor químico brasileiro. Os resultados deste teste foram os seguintes: (a) PGAs de planejamento e organização possuem uma relação positiva com o desempenho ambiental e o com desempenho financeiro; (b) PGAs operacionais possuem uma relação negativa com o desempenho financeiro; (c) PGAs comunicacionais possuem uma relação positiva com o desempenho financeiro; (d) Não há relação estatisticamente significativa entre as PGAs operacionais e o desempenho ambiental; (e) Não há relação estatisticamente significativa entre as PGAs comunicacionais e o desempenho ambiental; (f) Não há relação estatisticamente significativa entre o desempenho ambiental e o desempenho financeiro. Neste estudo, as práticas de gestão ambiental se relacionam mais significativamente com o desempenho financeiro, podendo indicar, na amostra estudada, um perfil menos proativo de gestão ambiental, com foco na adequação legar para a continuar com um bom desempenho financeiro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A comercialização de energia elétrica de fontes renováveis, ordinariamente, constitui-se uma atividade em que as operações são estruturadas sob condições de incerteza, por exemplo, em relação ao preço \"spot\" no mercado de curto prazo e a geração de energia dos empreendimentos. Deriva desse fato a busca dos agentes pela formulação de estratégias e utilização de ferramentais para auxiliá-los em suas tomadas de decisão, visando não somente o retorno financeiro, mas também à mitigação dos riscos envolvidos. Análises de investimentos em fontes renováveis compartilham de desafios similares. Na literatura, o estudo da tomada de decisão considerada ótima sob condições de incerteza se dá por meio da aplicação de técnicas de programação estocástica, que viabiliza a modelagem de problemas com variáveis randômicas e a obtenção de soluções racionais, de interesse para o investidor. Esses modelos permitem a incorporação de métricas de risco, como por exemplo, o Conditional Value-at-Risk, a fim de se obter soluções ótimas que ponderem a expectativa de resultado financeiro e o risco associado da operação, onde a aversão ao risco do agente torna-se um condicionante fundamental. O objetivo principal da Tese - sob a ótica dos agentes geradores, consumidores e comercializadores - é: (i) desenvolver e implementar modelos de otimização em programação linear estocástica com métrica CVaR associada, customizados para cada um desses agentes; e (ii) aplicá-los na análise estratégica de operações como forma de apresentar alternativas factíveis à gestão das atividades desses agentes e contribuir com a proposição de um instrumento conceitualmente robusto e amigável ao usuário, para utilização por parte das empresas. Nesse contexto, como antes frisado, dá-se ênfase na análise do risco financeiro dessas operações por meio da aplicação do CVaR e com base na aversão ao risco do agente. Considera-se as fontes renováveis hídrica e eólica como opções de ativos de geração, de forma a estudar o efeito de complementaridade entre fontes distintas e entre sites distintos da mesma fonte, avaliando-se os rebatimentos nas operações.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O crescimento económico de um país depende dos fundos disponíveis, quer para o financiamento da formação de capital quer para a sua reposição. Fundos obtidos pelas empresas e organismos públicos através de diversas formas, entre as quais, se destaca a emissão de valores mobiliários. Os aforradores, detentores de recursos, ao comprarem valores mobiliários, aliam uma alta rentabilidade a uma elevada liquidez na remuneração dos seus investimentos. As bolsas de valores são o meio onde as empresas, os organismos públicos e os aforradores, têm a possibilidade de verem esses interesses conciliados de uma maneira eficiente, eficaz e transparente, garantindo assim, uma maior liquidez aos títulos financeiros transaccionados em bolsa de valores. As empresas possuem várias alternativas de financiamento, o mercado de capitais é considerado pelos gestores, a fonte onde o rendimento ou o retorno obtido pode ser maior, perante a contrapartida de se incorrer um maior risco. Este mercado surge como alternativa aos empréstimos bancários, as empresas podem, dessa forma, adquirir financiamento de terceiros, os quais se tornarão accionistas dessa empresa. Podem emitir novas acções no mercado accionista de forma a atrair investidores externos que garantam a sustentabilidade do negócio. As acções possuem diversas caracteristicas e modalidades e fazem com que o capital da empresa seja partilhado por todos os seus accionistas, tendo em conta a proporção por eles adquirida individualmente. Esta dissertação investiga a dinâmica de compra e de venda das acções no mercado bolsista, os factores que determinam o seu preço, assim como os modelos que permitem a avaliação das mesmas e a inferência da taxa de retorno esperada por um investidor. A avaliação das acções é o tema de maior importância para esta análise, mais concretamente, a determinação e previsão do preço, e não apenas o preço propriamente dito, pois este é facultado diáriamente por vários jornais e também na internet. Perante o estudo da determinação de preços de uma acção num horizonte temporal, um investidor pode inferir se as suas acções estão a ser avaliadas sob um preço justo, e mais importante, pode apurar a sua previsão consoante dados e análises de factores. Outro ponto importante abordado nesta investigação tem que ver com a possibilidade das empresas em conhecer o modo como o mercado faz a sua avaliação a fim de tomar decisões certas acerca do orçamento de capital. Apenas se deve julgar a atractividade de um negócio se se souber como são avaliadas as acções. Nos mercados financeiros existe a tendência, por parte dos agentes económicos, de relacionarem o preço com o valor dos títulos financeiros. As decisões para a transacção de títulos financeiros são tomadas segundo a sua comparação. O preço ou cotação de mercado é formado em mercados organizados, pelo que depende das regras de funcionamento do mercado, tais como, os mínimos para transacção ou a variação máxima e mínima permitida. Estão associados a uma transação dependendo assim da procura e oferta dos títulos e incorporam ainda os custos de transacção. A ideia subjacente ao modelo Capital Asset Pricing Model é a de que, os investidores esperam uma recompensa pela preocupação dos investimentos realizados com risco ou com um retorno incerto. Quando se investe em títulos com risco, espera-se um retorno extra (comparando com os Bilhetes do Tesouro sem risco, recebe-se apenas os juros) ou um prémio de risco pela preocupação. A incerteza no retorno dos títulos provem de duas fontes, nomeadamente os factores macroeconómicos, pode-se chamar também, um factor comum, e os factores específicos inerentes à actividade da empresa. O facto comum é assumido como tendo um valor esperado zero pois é medido por nova informação respeitante à macroeconomia. O modelo assume duas ideias fundamentais: em primeiro lugar, existe consenso em relação ao facto dos investidores exigirem um retorno adicional por correrem riscos, e em segundo lugar, os investidores preocupam-se geralmente com o risco de mercado geral que não pode ser eliminado através de diversificação da carteira de investimentos. Este modelo pode ser bastante eficaz pois apenas considera um único factor para o cálculo da rendibilidade esperada de um título financeiro, que é a volatilidade do mercado no geral, a qual pode ser estudada. Ao contrário dos modelos multifactoriais, que incluem vários factores macroeconómicos tornando o objectivo da análise pouco intuitivo e complexo. Existem vários modelos para avaliação dos títulos de uma empresa cotada em bolsa de valores, geralmente estes modelos utilizam taxas de juro sem risco para equilibrar carteiras diversificadas, embora seja necessário analisar o retorno de um título ou carteira sob a influência de diversas variáveis macroeconómicas. Por exemplo outro modelo aplicado neste dissertação é o modelo Arbitrage Pricing Theory que perante o seu resultado comparado com o primeiro modelo, se pode definir qual dos modelos tem uma aplicação mais conclusiva para o mercado accionista português. Este modelo de avaliação por arbitragem estabelece uma relação linear entre o excedente do retorno esperado dos activos face à taxa de juro certa (sem risco) e um conjunto de variáveis. Pressupõe que a taxa de rentabilidade de um activo com risco é uma função linear de um conjunto de factores comuns a todos os activos financeiros. Tem como ideia subjacente, a constituição de uma carteira de não arbitragem, ou seja, uma carteira que não envolve qualquer risco (sistemático ou específico) e não requer investimento inicial pois a venda de certos activos gera fundos para adquirir novos. A metodologia implementada abrange o mercado financeiro e modelos possíveis para esta questão. Para responder às hipóteses de investigação efectuou-se a aplicação efectiva do modelo CAPM e do modelo APT, com a captação de dados oficiais em instituições financeiras e na Bolsa de Valores NYSE Euronext Lisbon. Considerou-se um período temporal num passado próximo de forma a poder obter-se conclusões concretas e indicadores precisos para a sua implementação e desenvolvimento no futuro. A principal conclusão desta dissertação relaciona-se com o facto de não se verificar a total validação da aplicação dos modelos, contudo o modelo CAPM é mais conclusivo do que o modelo APT, pois pode-se afirmar que tem aplicação prática em empresas que se conheça à priori a sua capitalização bolsista e beta anual. Por exemplo, aos títulos financeiros de empresas com capitalizações bolsistas inferiores a cinco mil milhões de euros e com um beta anual inferior a 1 poderá aplicar-se o modelo, assim como a títulos de empresas com capitalizações bolsistas superiores a dez mil milhões de euros e beta anual superior 1,5. Os sectores da Banca e do Papel também poderão ter potencial de aplicação do modelo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El autismo es un trastorno caracterizado por un funcionamiento cognitivo anormal principalmente en la comunicación y la interacción social. Aunque aun se sabe muy poco sobre la patología de los procesos subyacentes a este déficit, en distintos estudios se ha observado que el déficit social que presentan estos sujetos suele ir acompañado de dificultades en el procesamiento de rostros. Diferentes autores sugieren que la amígdala junto a otras estructuras cerebrales responsables del procesamiento facial y emocional estarían funcionando inadecuadamente en esta población y que existiría una estrecha relación entre los déficits en el comportamiento social y comunicacional y el procesamiento facial. Por este motivo, en el presente trabajo se pretende realizar una revisión de las manifestaciones clínicas que presentan distintos sujetos con diagnostico de autismo evaluados en diversos estudios científicos. Además, revisaremos los modelos teóricos que pretenden explicar el déficit del procesamiento facial y su relación con el inadecuado funcionamiento social y comunicacional de las personas autistas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo es buscar un modelo reducido de síntomas del Trastorno por Déficit de Atención con Hiperactividad subtipo Combinado (TDAH-C), que presente adecuada validez de criterio para su diagnóstico. La metodología se basa en contexto de estudio epidemiológico. Muestra de 1095 casos entre 6 y 16 años [4.38 % TDAH-C]. Se realiza una selección de casos con primera fase psicométrica de sospecha TDAH-C que requiere que ADHD RS-IV, implementado por padres (PA) y profesores (PR), supere el PC 90. En la segunda fase, los casos seleccionados se evalúan mediante entrevista clínica modelo DISC-IV (DSM-IV) para confirmar TDAH-C. Se implementa regresión logística para buscar modelo parsimonioso de ítems que permita predecir TDAH-C. El modelo de ítems que permite predecir TDAH-C contiene 8 de los 36 ítems del ADHD RS-IV contestados por PA y PR. Considerando las odds ratio del modelo de regresión logística, los ítems del ADHD RS-IV seleccionados son los siguientes 15PR, 1PA, 16PR, 12PA, 17PA, 10PA, 14PA y 4PR. El modelo presenta validez de criterio para TDAH-C clínico (sensibilidad: 97.9 %. Especificidad: 93.8%. Razón de verosimilitud: 16.02). Es posible reducir la lista de síntomas de TDAH-C con buena validez de criterio, manteniendo los que proporcionan mayor discriminación entre TDAH-C y población general.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação visa uma aplicação de séries temporais, na modelação do índice financeiro FTSE100. Com base na série de retornos, foram estudadas a estacionaridade através do teste Phillips-Perron, a normalidade pelo Teste Jarque-Bera, a independência analisada pela função de autocorrelação e pelo teste de Ljung-Box, e utilizados modelos GARCH, com a finalidade de modelar e prever a variância condicional (volatilidade) da série financeira em estudo. As séries temporais financeiras apresentam características peculiares, revelando períodos mais voláteis do que outros. Esses períodos encontram-se distribuídos em clusters, sugerindo um grau de dependência no tempo. Atendendo à presença de tais grupos de volatilidade (não linearidade), torna-se necessário o recurso a modelos heterocedásticos condicionais, isto é, modelos que consideram que a variância condicional de uma série temporal não é constante e dependente do tempo. Face à grande variabilidade das séries temporais financeiras ao longo do tempo, os modelos ARCH (Engle, 1982) e a sua generalização GARCH (Bollerslev, 1986) revelam-se os mais adequados para o estudo da volatilidade. Em particular, estes modelos não lineares apresentam uma variância condicional aleatória, sendo possível, através do seu estudo, estimar e prever a volatilidade futura da série. Por fim, é apresentado o estudo empírico que se baseia numa proposta de modelação e previsão de um conjunto de dados reais do índice financeiro FTSE100.