61 resultados para Equivalente dinâmico
em Universidad del Rosario, Colombia
Resumo:
Introducción: Las fracturas intertrocantéricas han llegado a nuestros días con una mayor incidencia dado el envejecimiento de la población, con fracturas más complejas, menos estables y asociadas a osteoporosis, se estima que representan aproximadamente 1,75 millones de años de vida perdidos ajustados a discapacidad es decir 0,1% de la carga de morbilidad a nivel mundial. Existe consenso en el tratamiento quirúrgico de este tipo de fracturas, presentando una incidencia variable de fallos, principalmente cuando son inestables, entre estos el denominado “cuto ut”. La utilización de un método de fijación con placa y tornillo helicoidal (DHHS) aparentemente disminuye la incidencia de dichos fallos con respecto a otras técnicas. Metodología: Por medio de una muestra calculada en 128 de pacientes con fracturas intertrocantéricas operados con DHS y DHHS entre el 2007 y el 2012 en La Clínica San Rafael de la ciudad de Bogotá, Colombia, se realizó un análisis multivariado para determinar si existe o no diferencias significativas en los índices de fallo entre estas dos técnicas. Resultados: Los pacientes incluidos en el estudio 54 (42,1%) fueron hombres y 74 (57,8%) fueron mujeres. 75 fueron operados con DHHS y 53 con DHS; en cuanto a las comorbilidades las principales fueron Hipertensión con 40 pacientes para DHS y 30 para DHHS, para el caso de Diabetes Mellitus fueron 13 y 9 para DHS y DHHS, respectivamente; en cuanto al tipo de fractura más común la principal fue la clasificación Tronzo II con 9 pacientes para DHS y 13 para DHHS. Conclusión. Para el estudios se evidencia que para los 3 desenlaces principales evaluados, 1. El porcentaje de re intervención (p=0,282), 2. La supervivencia en el primer año (p=0,499) y 3. El desempeño funcional con la escala de Oxford (p=0,06); no hubo diferencias estadísticamente significativas entre los grupos.
Resumo:
El presente trabajo estudia el efecto de la política fiscal sobre el empleo y la producción de los sectores formales e informales. En particular, se estudia cuáles tipos de impuestos son más eficientes para financiar el gasto público, en el contexto de una economía con un sector informal importante. El modelo puede ser usado para evaluar el efecto de políticas fiscales tendientes a reducir el tamaño del sector informal, como la recientemente adoptada en Colombia. En este artículo se presenta un modelo dinámico con acumulación de capital y presencia del sector informal, con el fin de cuantificar el efecto de cambios en la política fiscal en un país con un sector informal importante, como Colombia. Para esto, se le introduce desempleo e informalidad a un modelo dinámico de crecimiento a la Ramsey-Cass-Koopmans con impuestos al consumo, al trabajo y al capital. A partir de esta estructura se construye un modelo Dinámico Estocástico de Equilibrio General (DSGE por sus siglas en inglés) con fricciones en el mercado de trabajo a la Mortensen y Pissarides (1994) y con dos sectores productivos: el formal y el informal. Los resultados de los ejercicios confirman los resultados encontrados por Stiglitz en un modelo estático, en el sentido que el impuesto al consumo no necesariamente es más eficiente que otros impuestos que en la literatura tradicional son distorsionantes.
Resumo:
El presente documento se propone estimar y analizar la existencia de una relación de equilibrio de largo plazo entre la producción industrial y la importación de bienes de capital y materias primas para el período enero de 1993 - abril de 2005, que resulta útil para monitorear la dinámica industrial en el corto plazo y las complementariedades que pueden existir entre los factores productivos del mercado interno con el externo. Para tal efecto, se desarrolla un análisis econométrico de la metodología de cointegración con componentes estacionales aplicado a las variables índice de producción real (IPR), importación de bienes de capital e importación de materias primas de la industria colombiana. A partir de un modelo de cointegración estacional se evidencia empíricamente la existencia de una relación de equilibrio de largo plazo entre estas variables durante el período analizado. Adicionalmente, se utiliza el modelo estimado para realizar ejercicios de impulso-respuesta para analizar la trayectoria futura de las variables de interés cuando son afectadas por choques exógenos en el tiempo.
Resumo:
Entre 1985 y 1998 la tasa de crecimiento de Chile se encontró entre las cuatro primeras delmundo (Massad, 2002; Gallego & Loayza, 2002) siendo, sin embargo, sumamente heterogéneoel comportamiento a nivel territorial. El objetivo de este trabajo es analizar cuán disímiles hansido los desempeños económicos de las regiones chilenas en las últimas cinco décadas (1960-2009) en relación con las políticas económicas implementadas. Una novedosa metodología deanálisis de clusters, basada en el estudio de la dinámica de regímenes, es usada para el estudiode la convergencia y/o divergencia del comportamiento de las distintas regiones.
Resumo:
En este artículo se utiliza un modelo de equilibrio general dinámico estocástico (DSGE) paraevaluar el impacto de choques de oferta (productividad) y demanda (comercio externo) sobre eldesempeño económico. En particular, este trabajo analiza el impacto de las políticas fiscales, específicamente el efecto del gasto público en determinados entornos económicos, como el colombiano.Los ejercicios realizados muestran que en un modelo de economía abierta, una políticaexpansiva de gasto público incrementa en el corto plazo el empleo y el producto, pero se incurre en un costo futuro, que parece sugerir un impacto superior al beneficio alcanzado en el corto plazo.
Resumo:
Este libro es una invitación al lector para entender que ha pasado en el mundo político después del fin de la Guerra Fría, viajando con el autor, a través de sus fotos y artículos periodísticos, por lugares del planeta donde definitivamente parece superado el viejo conflicto ideológico y por otros donde las cenizas calientes que aún persisten pueden suponer un peligro para la paz mundial. Es un recorrido que va desde la Alemania reunificada, símbolo inequívoco del fin de la Guerra Fría en Europa, hasta su equivalente asiático, el Vietnam ahora amigo de Estados Unidos y abierto al capitalismo. Igualmente incluye reportajes en lugares en donde aún hay vestigios de la Guerra Fría, como la delicada frontera entre Corea del Norte y Corea del Sur, o la Cuba a la que su poderoso vecino aún le pasa factura por un desacuerdo ideológico agotado desde el siglo pasado. Además hay varios capítulos sobre el país que más se ha beneficiado del fin de la Guerra Fría: la China comunista, capitalista de hoy, que recibe a Hong Kong sin transformarlo y moderniza sus ciudades al tiempo que cambia radicalmente sus costumbres sexuales. Se viaja también a esa Nicosia dividida que simboliza un nuevo Muro de Berlín y que separa a cristianos y musulmanes; a esa pobre Etiopía, triste ejemplo del continente donde los conflictos persisten; a los ricos Emiratos Árabes en lso que petrodólares reemplazan a la política; al Sarajevo que se reconstruyó tras la invasión serbia, y al variopinto Sudeste Asiático, visible en el mapa mundial desde el Tsunami. Finalmente, el autor plantea una crítica a la idea de que en el mundo actual, tras el fin de la Guerra Fría, ha estallado un choque de civilizaciones que será el nuevo escenario del conflicto mundial.
Resumo:
El mercadeo es un proceso dinámico, que esta en permanente movimiento y evolución, impulsado por las nuevas demandas de sus clientes de una parte y por los cambios que se gestan en el entorno macroeconómico que le rodea, es así como la empresa modifica su estructura, haciendo cada vez mas flexible la estrategia, se fusiona, se reorganiza, coopera, comparte, con el fin de satisfacer las necesidades de sus clientes y consumidores .Ofreciendo productos que generen nuevos valores agregados, como ruta hacia la fidelización de los segmentos de mercado a los que se dirige creando relaciones de beneficio, para todos los actores del sistema en un nuevo orden que no se puede anticipar ni proyectar, el presente trabajo aborda la percepción de varios actores a nivel regional acerca de la pertinencia y aplicación de supuestos de mercadeo.
Resumo:
Este trabajo pretende explorar el desarrollo del sector de la telefonía móvil desde sus inicios hasta la actualidad en Colombia, con el fin de generar escenarios de futuro. Las herramientas prospectivas MicMac (Análisis Estructural Prospectivo), Smic (Sistema de Matrices de Impactos Cruzados) y la opinión de expertos líderes del sector, son la base principal para el desarrollo del trabajo. Las entidades gubernamentales, la CTR (Comisión de Regulación de Telecomunicaciones), y los líderes de los operadores del sector de telefonía móvil, entre otros, se han concientizado que la innovación es la base del éxito en este tipo de organizaciones y por eso se ha trabajado en mejorar su regulación, logrando de esta manera que el desarrollo de los productos y servicios que se ofrecen sean cada vez mejores y perjudique en menor medida al medio ambiente y a los usuarios. Este subsector de las telecomunicaciones, es el más dinámico y con mayor potencial. Sin embargo, este también es afectado por las condiciones económicas del mercado, la inestabilidad política, las importaciones y exportaciones derivadas de los tratados comerciales, entre otros temas. El escenario apuesta facilitaría la prestación de productos con tecnología de punta y servicios con la mejor cobertura y acceso posible a precios bajos.
Resumo:
Michael Porter reconocido como una autoridad en estrategia nos ha motivado a entrar a analizar profundamente sus propuestas e ideas en el campo de su dominio, con el objetivo de analizarlas y validarlas en el actual ambiente de negocios, caracterizado por ser turbulento y dinámico. El método elegido fue contratar éste ambiente con el ambiente bajo el cual se crearon las propuestas estratégicas de Michael Porter. Para esto, nos enfocamos en su propuesta para la estrategia de negocio, específicamente, las Tres Estrategias Genéricas. Tomando el caso de estudio de ZARA y su trayectoria empresarial como una investigación empírica para obtener resultados y discutirlos bajo parámetros que surgen desde las críticas desarrolladas por otros autores. Tomando como fuente de información libros, ensayos, publicaciones en Internet, noticias, entrevistas a clientes y a sus empleados.
Resumo:
Introducción: el gold estándar para el error refractivo es la retinoscopía. Los docentes de optometría al evaluar estudiantes, aceptan una diferencia de ±0,50D en la refracción pero no se ha evaluado estadísticamente si es adecuado para ametropías bajas y altas. El objetivo fue cuantificar el grado de concordancia interobservadores en retinoscopía estática entre docentes y estudiantes, para ametropías altas y bajas. Metodología: estudio de concordancia entre 4 observadores en 40 ojos, 20 con ametropías altas y 20 con bajas; muestreo no probabilístico por conveniencia. Análisis estadístico con coeficiente de correlación intraclase, confiabilidad 95%, poder 90%, y con método gráfico de límites de acuerdo al 95%. Resultados: concordancia para el equivalente esférico entre docentes 0,96 y entre estudiantes 0,56. En estudiantes concordancia de 0,89 para defectos refractivos bajos y docentes 0,96 para defectos altos. Concordancia entre cuatro examinadores 0,78, defectos bajos 0,86 y para altos 0,67. Margen de error entre docentes ±0,87D y estudiantes ±3,15D. En defectos bajos ±0,61D para docentes y ±0,80D para estudiantes y en defectos altos ±1,10D y ±4,22D respectivamente. Discusión: hubo mayor confiabilidad en retinoscopía entre profesionales experimentados. Se comparó la concordancia entre docentes y estudiantes, por eso puede haberse encontrado menor concordancia que la descrita por otros estudios que compararon entre profesionales a pesar haber sido elegidos por sus buenas calificaciones. Se deben formular estrategias de enseñanza que permitan reducir los márgenes de error obtenidos y mejorar la concordancia entre docentes y estudiantes.
Resumo:
La implementación de los procesos de contratación pública electrónica permite aprovechar las ventajas de los avances tecnológicos en el manejo de la información y las telecomunicaciones, con el fin de aumentar la eficiencia y la eficacia de los procesos de contratación estatal, así como la transparencia de los mismos. En ese sentido, el presente trabajo de investigación se centrará en analizar si, de acuerdo con nuestro modelo jurídico, el procedimiento administrativo electrónico como equivalente funcional del procedimiento administrativo tradicional, posibilita la simplificación y racionalización de trámites en los procesos de contratación que adelanta la Administración Pública, permitiendo la realización de los principios de igualdad, moralidad, eficacia, economía, eficiencia, celeridad, imparcialidad y publicidad.
Resumo:
El presente documento contiene una descripción del sector de la bisutería industrial en Colombia. En los últimos años, este sector se ha vuelto muy dinámico, como resultado del incremento de los competidores internacionales, quienes se han percatado de que para obtener una ventaja competitiva, deben hacer una diferenciación en el diseño del empaque, más que en el del producto. En la producción industrial de bisutería se compite con grandes volúmenes, en mercados nacionales y externos que tienen características similares en cuanto a los procesos de producción y la capacidad de las plantas. Esta circunstancia permite realizar un análisis más cerrado y entre muy pocos actores, que puede ofrecernos un diagnóstico claro y objetivo respecto a dónde se dirige esta industria. Este documento, desarrollado de manera conjunta con estudiantes de la Especialización de Gerencia de Negocios Internacionales de la Facultad de Administración, pretende contribuir al trabajo del Grupo de Investigación en Perdurabilidad Empresarial en la comprensión de la manera como las empresas enfrentan la turbulencia del sector. Se utiliza la metodología de “Análisis estructural de sectores estratégicos”, desarrollada por la Línea de Investigación en Pensamiento Estratégico de la Facultad de Administración, para comprender de una mejor manera lo que ocurre en el sector.
Resumo:
Introducción: A pesar de que las combinaciones de Propofol y opioides son ampliamente usadas para inducir y mantener una adecuada anestesia y analgesia, disminuir la dosis del inductor, incrementar la estabilidad hemodinámica y suprimir la respuesta a la laringoscopia y la intubación; no existen estudios que comparen el uso de Anestesia Total Intravenosa manual con Remifentanil - Propofol versus Fentanil - Propofol. Objetivo: Comparar el tiempo de despertar y el tiempo de descarga entre dos técnicas de Anestesia Total Intravenosa manual empleadas en el Hospital Occidente de Kennedy, una basada en Propofol y Remifentanil y otra basada en Propofol y Fentanil controlado por Stangraf. Metodología: Estudio de corte transversal, en 43 pacientes llevados a cirugía bajo Anestesia Total Intravenosa en el Hospital Occidente de Kennedy. Se analizó la información mediante las pruebas de Shapiro-Wilks, t de Student y U de Mann Withney y los coeficientes de correlación de Spearman y de Pearson, usando SPSS versión 20 para Windows. Un valor de p < 0.05 fue aceptado como estadísticamente significativo. Resultados: Al comparar las dos técnicas, no se encontraron diferencias estadísticamente significativas en los tiempos evaluados. El tiempo de despertar promedio fue 10,1 minutos para Fentanil y 10,2 minutos para Remifentanil. El tiempo de descarga para Fentanil fue 11,9 minutos y para Remifentanil fue 11,5 minutos. Conclusiones: El uso de Fentanil - Propofol guiado por Stangraf es equivalente al uso de Remifentanil – Propofol en cuanto a los tiempos de despertar y de descarga. Se requieren nuevos estudios para corroborar estos hallazgos.
Resumo:
De manera tradicional se ha afirmado que existen dos formas de ciencia: una basada en la inducción y otra fundada en deducciones o, lo que es equivalente, en criterios y principios hipotético-deductivos. La primera ha sido conocida como ciencia empírica y su problema fundamental es el de la inducción; es decir, el de establecer cuáles, cómo y cuántas observaciones (o descripciones) particulares son suficientes (y/o necesarias) para elaborar generalizaciones. Esta es una clase de ciencia que trabaja a partir de observaciones, descripciones, acumulación de evidencias, construcción de datos, y demás, a partir de los cuales puede elaborar procesos de generalización o universalización. Este tipo de ciencia coincide con los fundamentos de toda la racionalidad occidental, a partir de Platón y Aristóteles, según la cual sólo es posible hacer ciencia de lo universal. Por su parte, el segundo tipo de ciencia consiste en la postulación de principios primeros o axiomas, y se concentra en el estudio de las consecuencias –igualmente, de los alcances– de dichos principios. Esta clase de ciencia tiene como problema fundamental la demostración de determinados fenómenos, valores, aspectos, dicho en general; y esto se fundamenta en el rigor con el que se han postulado los axiomas y los teoremas subsiguientes. Por derivación, esta clase de ciencia incorpora y trabaja con lemas y otros planos semejantes. Cultural o históricamente, esta clase de ciencia se inicia con la lógica de Aristóteles y se sistematiza por primera vez en la geometría de Euclides. Toda la ciencia medieval, llamada theologia, opera de esta manera. En el marco de la ciencia contemporánea estas dos clases de ciencia se pueden ilustrar profusamente. En el primer caso, por ejemplo, desde el derecho que afirma que las evidencias se construyen; las ciencias forenses (antropología forense, odontología forense y demás) que sostienen algo semejante; o el periodismo y la comunicación social que trabajan a partir del reconocimiento de que la noticia no existe, sino que se construye (vía la crónica, la reportería y otras). De otra parte, en el segundo caso, desde las matemáticas y la lógica hasta las ciencias y las disciplinas que incorporan parámetros y metodologías basadas en hipótesis. (Vale la pena recordar siempre aquella idea clásica del propio I. Newton de acuerdo con la cual la buena ciencia y en las palabras de Newton: hipothese non fingo). Pues bien, por caminos, con motivaciones y con finalidades diferentes y múltiples, recientemente ha emergido una tercera clase de ciencia, que ya no trabaja con base en la inducción y en la deducción, sino de una manera radicalmente distinta. Esta tercera manera es el modelamiento y la simulación, y la forma más acabada de esta ciencia son las ciencias de la complejidad.
Resumo:
La ciencia como construcción altamente elaborada está presente en todas las esferas de desarrollo del hombre contemporáneo. Los procesos de formación incluyen la enseñanza y aprendizaje de sistemas conceptuales y lingüísticos complejos y la inculcación de un sistema de representaciones e imágenes científicas, modelos, técnicas, notaciones, problemas y manejo de instrumentos y de datos (1). Además supone las formas de comunicación de los resultados ante las comunidades de modo que el proceso de construcción del conocimiento sea dinámico.