516 resultados para investor
Resumo:
Poor countries have lower PPP–adjusted investment rates and face higher relative prices of investment goods. It has been suggested that this happens either because these countries have a relatively lower TFP in industries producing capital goods, or because they are subject to greater investment distortions. This paper provides a micro–foundation for the cross–country dispersion in investment distortions. We first document that firms producing capital goods face a higher level of idiosyncratic risk than their counterparts producing consumption goods. In a model of capital accumulation where the protection of investors’ rights is incomplete, this difference in risk induces a wedge between the returns on investment in the two sectors. The wedge is bigger, the poorer the investor protection. In turn, this implies that countries endowed with weaker institutions face higher relative prices of investment goods, invest a lower fraction of their income, and end up being poorer. We find that our mechanism may be quantitatively important.
Resumo:
Les trois essais dans cette thèse étudient les implications des frictions financières, telles que les contraintes de collatérale ou de crédit, pour les décisions économiques des agents et leur impact sur les variables macro-économiques agrégées. Dans le premier chapitre "Financial Contracts and the Political Economy of Investor Protection" nous proposons une théorie du niveau de protection des investisseurs. Une faible protection des investisseurs implique un coût de financement externe plus élevé à cause des problèmes d'agence plus aigus entre les investisseurs et les entrepreneurs. À l'équilibre, ceci exclut les agents plus dépendants sur le financement externe de l'entrepreneuriat, ce qui augmente les profits des entrepreneurs qui restent actifs. Quand le niveau de la protection des investisseurs est choisi par un vote majoritaire, la théorie génère (i) une protection des investisseurs plus faible dans les économies avec plus grande inégalité dans les besoins de financement externe parmi les entrepreneurs, (ii) une dynamique non-monotone de l'output, (iii) améliorations (détériorations) de la protection des investisseurs suite à des ralentissements (accélérations) de l'output agrégé. L'évidence empirique donne un support à ces prédictions de la théorie. Dans le deuxième chapitre "Financial Frictions, Internal Capital Markets, and the Organization of Production", nous examinons comment la présence des frictions financières peut mener à la formation des conglomérats et des "business groups" diversifiées. Particulièrement, nous construisons un modèle d'équilibre général d'entrepreneuriat dans lequel les conglomérats émergent de façon endogène et substituent partiellement le marché du crédit imparfait. Nous montrons que ce modèle est capable d'expliquer quantitativement plusieurs faits stylisés concernant l'organisation de la production, les différences de productivité entre les firmes et les différences en présence des conglomérats entre les pays. Le troisième chapitre "Size and Productivity of Single-segment and Diversified Firms: Evidence from Canadian Manufacturing" étudie empiriquement la relation entre la taille, la productivité, et la structure organisationnelle d'une firme. Utilisant les micro-données sur les établissements manufacturiers canadiens, nous documentons plusieurs faits stylisés concernant la taille et la productivité totale des facteurs des établissements dans les conglomérats et dans les firmes non-diversifiées. Nous trouvons que les établissements dans les conglomérats sont en moyenne plus larges que leurs contreparties dans les firmes non-diversifiées, les petits établissements dans les conglomérats sont moins productifs que les établissements de taille similaire dans les firmes non-diversifiées, mais les larges établissements dans les conglomérats sont plus productifs que ceux de taille similaire dans les firmes non-diversifiées. Cette évidence est consistante avec réallocation interne efficiente des ressources au sein des conglomérats.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
Cette étude aborde la problématique de la participation des personnes morales de droit public à l’arbitrage à l’occasion des litiges relatifs aux relations qu’elles entretiennent avec les personnes privées étrangères. Par opportunisme économique, un certain nombre de pays développés et en développement se montrent tout à fait favorables à ce que l’État se soumette au contentieux arbitral. Dans d’autres pays, tels qu’en Amérique latine et dans le monde arabe, il se manifeste des tendances nettement hostiles gravitant entre l’interdiction totale et une adhésion conditionnelle de l’État à l’arbitrage. Deux écoles s’affrontent, celle des privatistes qui considèrent l’arbitre international comme le juge naturel du milieu des affaires, face à celle des étatistes qui postulent que les juridictions étatiques demeurent les seules habiles à connaitre souverainement des litiges opposants les personnes publiques à leur interlocuteur privé. Les raisons qui sous-tendent l’assouplissement de certains gouvernements vers un élan libéral de l’arbitrage en droit public, résultent du phénomène globalisant de l’économie qui tend à réduire à néant les règles internes des États dans le cadre du nouvel ordre économique mondial. Par contre, les conséquences sociales, financières et juridiques des sentences arbitrales portent certains gouvernements à adopter une position réfractaire à l’arbitrage mettant en cause les entités publiques. Ils brandissent le droit à l’autodétermination des peuples pour éviter le bradage de leurs ressources au détriment des droits économiques, sociaux et culturels de leurs populations, et ce, en dépit du fait que l’investissement direct étranger joue un rôle considérable dans le développement des pays en émergence. Notre défi ultime dans ce travail est d’explorer les diverses avenues permettant d’atteindre un juste équilibre entre les intérêts publics et la protection des investissements privés. Ceci exige un changement de paradigme qui prendra en compte les dimensions plurielles que constitue le contentieux investisseurs-États.
Resumo:
These articles evaluate using financial statement insurance (FSI) to reduce the frequency and magnitude of audit failure. The FSI concept was pioneered by Josh Ronen, NYU Accounting Professor, who has modeled its economic aspects. My paper examines FSI’s efficacy from policy and legal perspectives. I conclude that while the model is not perfect, it promises considerable advantages over the current model. While some of the existing system’s imperfections are sustained or reappear in different guises, none of the existing imperfections appears to be aggravated and the rest likely are mitigated significantly. So I prescribe a framework to permit companies, on an experimental-basis and with investor approval, to use FSI as an optional alternative to financial statement auditing backed by auditor liability.
Resumo:
In the last 50 years, we have had approximately 40 events with characteristics related to financial crisis. The most severe crisis was in 1929, when the financial markets plummet and the US gross domestic product decline in more than 30 percent. Recently some years ago, a new crisis developed in the United States, but instantly caused consequences and effects in the rest of the world. This new economic and financial crisis has increased the interest and motivation for the academic community, professors and researchers, to understand the causes and effects of the crisis, to learn from it. This is the one of the main reasons for the compilation of this book, which begins with a meeting of a group of IAFI researchers from the University of Barcelona, where researchers form Mexico and Spain, explain causes and consequences of the crisis of 2007. For that reason, we believed this set of chapters related to methodologies, applications and theories, would conveniently explained the characteristics and events of the past and future financial crisis This book consists in 3 main sections, the first one called "State of the Art and current situation", the second named "Econometric applications to estimate crisis time periods" , and the third one "Solutions to diminish the effects of the crisis". The first section explains the current point of view of many research papers related to financial crisis, it has 2 chapters. In the first one, it describe and analyzes the models that historically have been used to explain financial crisis, furthermore, it proposes to used alternative methodologies such as Fuzzy Cognitive Maps. On the other hand , Chapter 2 , explains the characteristics and details of the 2007 crisis from the US perspective and its comparison to 1929 crisis, presenting some effects in Mexico and Latin America. The second section presents two econometric applications to estimate possible crisis periods. For this matter, Chapter 3, studies 3 Latin-American countries: Argentina, Brazil and Peru in the 1994 crisis and estimates the multifractal characteristics to identify financial and economic distress. Chapter 4 explains the crisis situations in Argentina (2001), Mexico (1994) and the recent one in the United States (2007) and its effects in other countries through a financial series methodology related to the stock market. The last section shows an alternative to prevent the effects of the crisis. The first chapter explains the financial stability effects through the financial system regulation and some globalization standards. Chapter 6, study the benefits of the Investor activism and a way to protect personal and national wealth to face the financial crisis risks.
Resumo:
The United States of America and the European Union are currently negotiating a Transatlantic Trade and Investment Partnership (TTIP). It is one of the most ambitious free trade and investment initiatives, going much further than eliminating tariffs. TTIP mainly aims at reducing “non-tariff barriers”. While tariffs on goods have been imposed with an eye to foreign competition, most of the non-tariff barriers are the laws and regulations that are the result of social struggles for the protection of consumers and workers. It is therefore certain that TTIP will impact workers. This volume provides a preliminary assessment of the likely consequences for labor by: - providing an overall introduction to the TTIP negotiations; -assessing the reliability of the studies claiming employment gains; - highlighting specific problematic proposals such as the investor-to-state dispute settlement mechanism; - presenting the position of organized labor from both sides of the Atlantic. / Among the contributors are Stefan Beck (Kassel), Lance Compa (Ithaca, New York), Pia Eberhardt (Brussels) and Werner Raza (Vienna).
Resumo:
El modelo de franquicia ha evolucionado desde su inicio en Estados Unidos, en 1862, por Singer Sewing Machine Company debido a la necesidad de superar los problemas de distribución y cobertura de sus productos. Diversas empresas decidieron seguir con este modelo ya que sus ventajas eran mayores para penetrar mercados nuevos. Un claro exponente de la optimización de este modelo es McDonald"s que tiene más de 25.4651 franquicias en 126 países, pero para que se diera esta expansión contaron con criterios propios del modelo de franquicia que garantizan el éxito, los cuales son: estandarización de procesos y procedimientos (consignados en manuales), un "Know How" diferenciador, una marca consolidada, un plan de expansión estratégico y un modelo de negocio característico; tales variables son insustituibles para el desarrollo satisfactorio del modelo de franquicia. A nivel Colombia el primer acercamiento de franquicia lo dio la multinacional Burger King en 1980, pero luego las empresas colombianas decidieron seguir este modelo siendo Kokoriko la pionera seguida de Presto y Frisby. Una de las empresas que utiliza el modelo de franquicias en Colombia es Pan Pa" Ya!, pero es una franquicia diferente, se llama Franquicia financiera, ya que el franquiciado solo es un inversionista que aporta el capital, pero la administración esta a cargo del franquiciador. La empresa empezó utilizando el modelo tradicional de franquicia, pero este no fue exitoso debido a que los procesos no estaban totalmente estandarizados, no existía la tecnología del pan congelado y el proceso de supervisión de los locales franquiciados era muy difícil. Hoy, la situación ha cambiado y la empresa está estudiando si continuar con el modelo de franquicia financiera o volver al modelo tradicional de franquicia.
Resumo:
La inversión extranjera directa en Colombia es un asunto que particularmente desde 1990 ha venido tomando fuerza y que a su vez genera múltiples cuestiones. Para abordar el impacto que la IED ha tenido en Colombia se hace necesario hacer un acercamiento teórico para comprender el concepto, pasando por el estudio del caso latinoamericano para después seleccionar los principales sectores de la economía colombiana y en los cuales la IED ha jugado un rol destacado, como es el caso del sector financiero, la industria manufacturera, el sector de electricidad, gas y agua, el sector de transporte, almacenamiento y comunicaciones y el sector petróleo. Con ello en mente será posible establecer y medir el impacto económico de la IED, tomando como principal indicador la correlación entre la IED y PIB por sector y otros aspectos como el impacto en el empleo y la transferencia de conocimiento y tecnología. Igualmente es necesario abordar la perspectiva del inversionista y los riesgos y beneficios que corre al invertir en Colombia, esto permitirá ampliar el campo de análisis y establecer otras relaciones e impactos conexos de la IED en los aspectos sociales y culturales del país. Gracias a estos análisis será posible emitir un juicio de valor sustentado en un análisis científico detallado sobre el verdadero impacto de la IED y extendiéndose más allá del campo económico.
Resumo:
La presente monografía tiene como propósito analizar los tres principales objetivos estratégicos de la Política de Seguridad Democrática impulsada por Álvaro Uribe Vélez: recuperar el control del territorio por parte del Estado, aumentar la confianza inversionista y generar cohesión social en el periodo 2002-2010.
Resumo:
El presente trabajo nace del interés por la creciente influencia de China en el mundo, principalmente, gracias a su acelerado crecimiento económico de los últimos años y a un estricto sistema de regulación por parte del Estado. Teniendo en cuenta lo anterior, se decidió hacer un análisis de las diferentes esferas o el contexto en el que se ha desarrollado un país que pasaba desapercibido hasta hace poco y que en la actualidad es considerado como la próxima potencia mundial. Aquí se presentan características del territorio, la población, el idioma, la política, la economía y otros aspectos importantes para este estudio. Adicionalmente, se presentan cifras que permiten observar con mayor claridad su evolución a lo largo del tiempo, su contribución a la economía mundial, las acciones del gobierno, y su situación actual a nivel tecnológico, científico, militar, ambiental, entre otros. Es así como, después de recopilar información de fuentes diversas, se procede a analizar las principales fortalezas y amenazas del ascenso chino, para, de esta manera, presentar un panorama sobre el futuro del mundo y de este país, si la situación continúa como hasta ahora. Por último, se llega a una serie de conclusiones con relación a lo anteriormente analizado y se plantean algunas recomendaciones para sobrellevar de una mejor manera los aspectos negativos que se identificaron durante la investigación.
Resumo:
El acelerado desarrollo experimentado en los últimos años por las TIC, ha generado procesos de transformación fundamentales en las relaciones humanas, la economía, la cultura, la política e inclusive las costumbres. Tomando como punto de partida el concepto de Manuel Castells (2002), en el que manifiesta que la revolución de las TIC dada su capacidad de penetración en todo el ámbito de la actividad humana, entre ellas la obtención de conocimiento, es el punto de entrada para analizar la complejidad de la nueva economía, la sociedad y la cultura en formación, éste proyecto de investigación tiene como objetivos: i) Determinar el impacto que tiene la Sociedad del Conocimiento en el mercado accionario en Colombia y ii) Establecer por qué se considera al mercado accionario como un mercado especulativo. El documento inicia con un marco teórico en el que se analizan los conceptos que responden a dos tradiciones de pensamiento distintas: La Sociedad de la Información y la Sociedad del Conocimiento, y se abordan los rasgos centrales que actualmente las definen; analizando las transformaciones que llevaron a su origen y el modo en que se ha intentado unificar sus características bajo un único término. Seguidamente se realiza una contextualización del mercado accionario en Colombia haciendo una descripción de sus principales participantes y las características de cada uno de ellos. Posteriormente se describe el impacto que tienen los principales índices bursátiles utilizados en el mercado accionario y por último se hace una descripción desde diversos autores respecto del concepto de especulación.
Resumo:
Calidad en salud y Satisfacción en salud son dos fenómenos de naturaleza distinta, sin embargo la literatura reporta que en las mediciones de ambas parecen evaluarse factores similares en la prestación de los servicios de salud. La calidad en salud hace referencia a las ¨creencias que como forma de la percepción forman parte de la cognición mientras que la satisfacción concebida como un juicio de valor positivo o negativo que construye el sujeto que ha recibido el servicio de acuerdo al cumplimiento de sus expectativas, es considerada uno de los principales objetivos de la calidad de atención en salud y un indicador del óptimo funcionamiento de las instituciones hospitalarias, así entonces, el objetivo de este estudio fue determinar cuáles son las características asistenciales y administrativas que potencialmente influirían en la valoración de la satisfacción del usuario y funcionario frente a la atención en los servicios de salud del Hospital Municipal del Guamo-Tolima, mediante la identificación, medición y descripción de las mismas .Los resultados del estudio obtenidos a partir de la comparación de medias de cada uno de los ítems evaluados, y de la diferencia significativa de medias, mostraron que existen diferencias significativas entre la importancia asignada por los usuarios frente a la asignada por los funcionarios.