1000 resultados para 120803 Aplicación de la probabilidad
Resumo:
Máster Universitario en Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería (SIANI)
Resumo:
Profundizar en el conocimiento de los factores que determinen la duración de los estudios universitarios en la doble perspectiva de finalización: el abandono o la obtención del título. 135 estudiantes de la Facultad de Ciencias Económicas y Empresariales de la Universidad de Barcelona, que empezaron sus estudios en el curso 85-86. Describe los métodos y modelos estadísticos utilizados en el análisis de datos. Aplica dichos métodos y modelizaciones a la muestra, desarrollando una base de datos para la ocasión. Analiza los datos de superviviencia en los estudios. Expone resultados y conclusiones. Base de datos ad hoc. Estadística: probabilidad, modelización paramétrica. Se valida el método de análisis de los datos de supervivencia para el tratamiento estadístico de la duración de los estudios universitarios. Las características personales de los alumnos tienen efectos menores sobre el tiempo de permanencia en la universidad que el rendimiento académico medido a partir del indicador de progresión académica, y tratado como variable en el tiempo. La normativa de permanencia llega a sus objetivos de avanzar el abandono de los estudios para los alumnos que presentan riesgo de abandono superior y duración más corta.
Resumo:
Resumen basado en el de la publicación
Resumo:
Elaboración de un cuestionario que recoja la respuesta de los alumnos a los distintos aspectos de contenido de las matemáticas en el Primer Ciclo de Educación Primaria. El cuestionario está diseñado como un test de potencia basado en la práctica docente. Recoge las aportaciones de distintos profesionales y tendencias en el proceso didáctico. Pretende identificar carencias de los alumnos en cada uno de los bloques temáticos y tipos de contenido que componen el currículo de matemáticas para el Primer Ciclo de Educación Primaria. El cuestionario se administró a alumnos de la Región de Murcia según la distribución territorial de la Consejería de Educación y Cultura. Una vez en disposición de los datos procedentes de la muestra de 682 alumnos, se procede al análisis de los cuestionarios tomando como punto de partida los supuestos de la Teoría de la Respuesta al Ítem, que es un compendio de modelos matemáticos que tratan de establecer, a partir de una función estadística, la probabilidad de que un sujeto acierte o falle un ítem. No se vincula a teorías sobre la inteligencia sino a problemas técnicos derivados de la construcción de test y a la estadística matemática. Se realiza un análisis factorial exploratorio para comprobar la hipótesis de partida. Al confirmarse, se procede a la realización de los correspondientes estudios de validez y a la confección de la ficha técnica del cuestionario. La hipótesis formulada partía de que la competencia matemática se estructura de forma multifactorial con factores ligados a aspectos numéricos, componentes heurísticos y a aspectos reacionados con la organización espacio-temporal.. Se ha realizado un Análisis de Componentes Principales con la finalidad de determinar el número de componentes que pueden explicar mayoritariamente la covariación entre los items. Los tres componentes encontrados son: el componente operativo, que hace referencia a las competencias en el manejo de algoritmos y la aplicación de los mismos en la solución de problemas. El componente estimativo, que hace referencia a las competencias en estimación y medida, así como a la localización mediante posiciones relativas y reconocimiento de formas y figuras y el componente de dominio local que hace referencia a las competencias en el manejo del valor posicional de las cifras de un número en lo referente al dominio de la semirecta de los números naturales. A la vista de los resultados, la competencia matemática se expresa en función de las componentes señaladas. El autor presenta aportaciones psicopedagógicas para la didáctica de las matemáticas en el Primer Ciclo de Educación Primaria, que se derivan de los resultados de su investigación..
Resumo:
Los incendios forestales son la principal causa de mortalidad de árboles en la Europa mediterránea y constituyen la amenaza más seria para los ecosistemas forestales españoles. En la Comunidad Valenciana, diariamente se despliega cerca de un centenar de vehículos de vigilancia, cuya distribución se apoya, fundamentalmente, en un índice de riesgo de incendios calculado en función de las condiciones meteorológicas. La tesis se centra en el diseño y validación de un nuevo índice de riesgo integrado de incendios, especialmente adaptado a la región mediterránea y que facilite el proceso de toma de decisiones en la distribución diaria de los medios de vigilancia contra incendios forestales. El índice adopta el enfoque de riesgo integrado introducido en la última década y que incluye dos componentes de riesgo: el peligro de ignición y la vulnerabilidad. El primero representa la probabilidad de que se inicie un fuego y el peligro potencial para que se propague, mientras que la vulnerabilidad tiene en cuenta las características del territorio y los efectos potenciales del fuego sobre el mismo. Para el cálculo del peligro potencial se han identificado indicadores relativos a los agentes naturales y humanos causantes de incendios, la ocurrencia histórica y el estado de los combustibles, extremo muy relacionado con la meteorología y las especies. En cuanto a la vulnerabilidad se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructuras de defensa), como de las características del terreno (valor, capacidad de regeneración…). Todos estos indicadores constituyen una estructura jerárquica en la que, siguiendo las recomendaciones de la Comisión europea para índices de riesgo de incendios, se han incluido indicadores representativos del riesgo a corto plazo y a largo plazo. El cálculo del valor final del índice se ha llevado a cabo mediante la progresiva agregación de los componentes que forman cada uno de los niveles de la estructura jerárquica del índice y su integración final. Puesto que las técnicas de decisión multicriterio están especialmente orientadas a tratar con problemas basados en estructuras jerárquicas, se ha aplicado el método TOPSIS para obtener la integración final del modelo. Se ha introducido en el modelo la opinión de los expertos, mediante la ponderación de cada uno de los componentes del índice. Se ha utilizado el método AHP, para obtener las ponderaciones de cada experto y su integración en un único peso por cada indicador. Para la validación del índice se han empleado los modelos de Ecuaciones de Estimación Generalizadas, que tienen en cuenta posibles respuestas correlacionadas. Para llevarla a cabo se emplearon los datos de oficiales de incendios ocurridos durante el período 1994 al 2003, referenciados a una cuadrícula de 10x10 km empleando la ocurrencia de incendios y su superficie, como variables dependientes. Los resultados de la validación muestran un buen funcionamiento del subíndice de peligro de ocurrencia con un alto grado de correlación entre el subíndice y la ocurrencia, un buen ajuste del modelo logístico y un buen poder discriminante. Por su parte, el subíndice de vulnerabilidad no ha presentado una correlación significativa entre sus valores y la superficie de los incendios, lo que no descarta su validez, ya que algunos de sus componentes tienen un carácter subjetivo, independiente de la superficie incendiada. En general el índice presenta un buen funcionamiento para la distribución de los medios de vigilancia en función del peligro de inicio. No obstante, se identifican y discuten nuevas líneas de investigación que podrían conducir a una mejora del ajuste global del índice. En concreto se plantea la necesidad de estudiar más profundamente la aparente correlación que existe en la provincia de Valencia entre la superficie forestal que ocupa cada cuadrícula de 10 km del territorio y su riesgo de incendios y que parece que a menor superficie forestal, mayor riesgo de incendio. Otros aspectos a investigar son la sensibilidad de los pesos de cada componente o la introducción de factores relativos a los medios potenciales de extinción en el subíndice de vulnerabilidad. Summary Forest fires are the main cause of tree mortality in Mediterranean Europe and the most serious threat to the Spanisf forest. In the Spanish autonomous region of Valencia, forest administration deploys a mobile fleet of 100 surveillance vehicles in forest land whose allocation is based on meteorological index of wildlandfire risk. This thesis is focused on the design and validation of a new Integrated Wildland Fire Risk Index proposed to efficient allocation of vehicles and specially adapted to the Mediterranean conditions. Following the approaches of integrated risk developed last decade, the index includes two risk components: Wildland Fire Danger and Vulnerability. The former represents the probability a fire ignites and the potential hazard of fire propagation or spread danger, while vulnerability accounts for characteristics of the land and potential effects of fire. To calculate the Wildland Fire Danger, indicators of ignition and spread danger have been identified, including human and natural occurrence agents, fuel conditions, historical occurrence and spread rate. Regarding vulnerability se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructurasd de defensa), como de las características del terreno (valor, capacidad de regeneración…). These indicators make up the hierarchical structure for the index, which, following the criteria of the European Commission both short and long-term indicators have been included. Integration consists of the progressive aggregation of the components that make up every level in risk the index and, after that, the integration of these levels to obtain a unique value for the index. As Munticriteria methods are oriented to deal with hierarchically structured problems and with situations in which conflicting goals prevail, TOPSIS method is used in the integration of components. Multicriteria methods were also used to incorporate expert opinion in weighting of indicators and to carry out the aggregation process into the final index. The Analytic Hierarchy Process method was used to aggregate experts' opinions on each component into a single value. Generalized Estimation Equations, which account for possible correlated responses, were used to validate the index. Historical records of daily occurrence for the period from 1994 to 2003, referred to a 10x10-km-grid cell, as well as the extent of the fires were the dependant variables. The results of validation showed good Wildland Fire Danger component performance, with high correlation degree between Danger and occurrence, a good fit of the logistic model used and a good discrimination power. The vulnerability component has not showed a significant correlation between their values and surface fires, which does not mean the index is not valid, because of the subjective character of some of its components, independent of the surface of the fires. Overall, the index could be used to optimize the preventing resources allocation. Nevertheless, new researching lines are identified and discussed to improve the overall performance of the index. More specifically the need of study the inverse relationship between the value of the wildfire Fire Danger component and the forested surface of each 10 - km cell is set out. Other points to be researched are the sensitivity of the index component´s weight and the possibility of taking into account indicators related to fire fighting resources to make up the vulnerability component.
Resumo:
La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.
Resumo:
En la presente tesis se desarrolla una metodología y una herramienta informática que permite abordar de forma eficaz y eficiente problemas de gestión de los recursos intervinientes en emergencias. Se posibilita, a través de indicadores innovadores como el Índice de Respuesta Operativa (I.RO.), una evaluación correcta del riesgo real en función de los medios disponibles y de su probabilidad de colapso, permitiendo desarrollar una optimización de la utilización estos medios tanto en el presente como en escenarios futuros. Para su realización se describen inicialmente los principales actores que intervienen en las emergencias evaluándolos y mostrando las sinergias existentes. Se define y analiza, a través de sistemas complejos socialmente inteligentes (SCSI) el “ciclo de global de las emergencias”: planificación, prevención, detección, intervención, rehabilitación y el tratamiento informativo de la crisis. Del mismo modo se definen los distintos escenarios donde se interviene y cómo se puede prever su evolución. Para ello se establecen unas tipologías de siniestros y se identifican las similitudes o diferencias entre ellos. También se describe y modela el problema de la toma de decisiones a nivel de planificación operativa, desde la localización de instalaciones, tipologías de parques de bomberos, etc. Para demostrar la viabilidad de la metodología desarrollada se realiza su aplicación al territorio de la Comunidad Autónoma de Madrid obteniendo resultados satisfactorios a partir de los datos existentes. Es un estudio totalmente innovador y de amplia repercusión no solo en la gestión de las emergencias sino también en otros campos tales como el de estrategia militar, comercial, de gestión de organizaciones, etc. ABSTRACT This Phd Thesis presents a method and software tool that allows facing, in an efficient and effective manner, the resources involved in emergencies. It enables a correct assessment of the real risk as a function of the available resources and its collapse likelihood. This is achieved by mean of some novel indexes such as the Operative Response Index. Therefore, it allows a current and future optimization of the use of available resources. First, it describes the main factors affecting emergencies, assessing them and showing existing synergies. Then, it defines and analyse through complex systems socially intelligent (CSSI) the overall emergency cycle: planning, prevention, detection, intervention, rehabilitation and informative crisis coverage. Similarly, it defines the scenarios of intervention and how to forecast their progress. To this end, some typologies of disasters are defined, identifying commonalities. Moreover, it also describes and model decision-making issues at operationalplanning level, such as the location of facilities, typologies of fire stations, etc. In order to prove the feasibility of the developed methodology, it is applied to the Comunidad Autónoma de Madrid, getting successful results from the existing data. This Phd Thesis is an innovative study with far reaching impact, not only in emergency management but also in other fields such as the military, business strategy, organizational management, etc.
Resumo:
Los procesos respiratorios en los caballos representan un problema muy importante en la clínica equina ya que provocan bajas y/o disminuciones del rendimiento tanto en caballos de uso deportivo como de otros tipos. Por ello es importante valorar de manera precisa las enfermedades que pueden provocar la muerte del paciente por la gravedad de las lesiones que generan. También es imprescindible ser capaces de emitir un pronóstico lo más acertado posible en la valoración de los procesos para determinar la esperanza de vida y posibilidades de recuperación o no de los enfermos, y hacerlo en función de la etiología del proceso que les afecta y del diagnóstico preciso para cada caso. En las últimas décadas y gracias al avance de la técnica y al desarrollo de los métodos de exploración se pueden realizar diagnósticos precisos y la evaluación correcta y adecuada de los pacientes equinos que exploramos en la clínica. Hay que tener en cuenta además en este sentido que son importantes también los avances realizados en el conocimiento de las enfermedades específicas de los caballos en disciplinas como la Medicina Interna y resto de especialidades clínicas actuales, y también valorar el avance en el conocimiento de las técnicas diagnósticas actuales que se pueden utilizar de manera precisa en cada caso para llegar a un diagnóstico específico. También hay que valorar y utilizar los protocolos clínicos en Medicina que permiten evaluar de manera específica, ordenada y precisa hoy día alos pacientes equinos. Por otra parte, es también fundamental saber que en la actualidad para el empleo sistemático de cualquier procedimiento en Medicina se debe realizar siempre un estudio de comprobación de la fiabilidad del mismo, y conocer los métodos y pruebas o determinaciones diagnósticas utilizadas en el protocolo específico utilizado o propuesto. Estas comprobaciones de la sensibilidad de los métodos utilizados, se realizan con la aplicación de sistemas de análisis matemáticos específicos de probabilidad que permiten la valoración y la contrastación de los métodos diagnósticos utilizados para analizar su fiabilidad...
Resumo:
Se ha realizado un análisis para estimar la susceptibilidad de las laderas, en suelos de la cuenca de drenaje del río Serpis, a sufrir inestabilidades inducidas por terremotos. Para ello, se ha utilizado el denominado método de Newmark, que ha sido convenientemente modificado para contemplar la variabilidad que, de forma natural, se observa en las propiedades geotécnicas de los materiales. En el cálculo, se ha efectuado una simulación Monte Carlo, donde todas las propiedades geotécnicas que intervienen son tratadas como variables aleatorias. Los resultados obtenidos están expresados como probabilidad de que la aceleración crítica del talud sea menor o igual que 0.1g. Las susceptibilidades más elevadas se observan cuando los materiales están secos, pero en tal caso la extensión de territorio afectado es pequeña. En cambio, cuando el suelo está saturado se observa que gran parte del territorio presenta susceptibilidad Media o Baja, incluso con pendientes de 6 – 10º, frente a susceptibilidad Muy Baja – Nula, que los caracteriza cuando se encuentra seco. Se ha analizado también la posición de las zonas de mayor susceptibilidad con respecto a elementos constructivos existentes en el área.
Resumo:
Estudio descriptivo de pacientes con ictus isquémico ingresados en el Hospital Vicente Corral dentro de las 24 horas de inicio de síntomas, desde enero a diciembre de 2004. El daño neurológico inicial fue cuantificado usando la NIHSS. El desenlace neurológico fue valorado a los 7 días y 3 meses utilizando el Indice de Barthel. Resultados: De 75 pacientes ingresados en el período de estudio, 24 cumplieron los criterios de inclusión y 23 completaron el seguimiento. A los 3 meses 66.7de pacientes, con puntaje inicial NIHSS menor que 6 evolucionaron a un resultado excelente. Los pacientes con un puntaje NIHSS igual o mayor que 16 tuvieron un mal desenlace. El 50de pacientes con un puntaje de 16 a 20 y los pacientes con puntaje mayor que 20 fallecieron. En el análisis estadístico, un puntaje mayor a 13 tuvo un Odds Ratio de 49.5 (IC 954.5 - 480.5) para un desenlace fatal a los 3 meses. La asociación fue significativa lo que otorga al punto de corte de 13 puntos una gran validez para pronosticar un buen o mal desenlace. Conclusión. Aplicando el NIHSS a los pacientes con ictus isquémico observamos que un puntaje igual o mayor a 16 predice una alta probabilidad de muerte o severa incapacidad, mientras que un puntaje igual o menor a 6 pronostica una buena recuperación. Descriptores DeCS. Ictus isquémico, NIHSS, Índice de Barthel
Resumo:
En el primer trimestre del año 2012 se aprobó y publicó la primera ley de medicamentos en El Salvador, después de más de diez años entre estudios y archivos en la Asamblea Legislativa. Esta ley nace con la finalidad de regular los precios de las medicinas, estrategias comerciales y publicitarias entre otras disposiciones. Es por ello que durante el periodo de marzo a noviembre de 2012, se realizó en El Salvador un estudio de campo con el propósito de identificar y medir el impacto financiero por la aplicación de la Ley de Medicamentos en los laboratorios farmacéuticos. La investigación se basó en datos y componentes de productos con mayor demanda y rentabilidad para las compañías, para lo cual se evaluó información de catorce entidades de un universo total de cincuenta y dos empresas inscritas en la base de la Dirección Nacional de Estadísticas y Censos (DIGESTYC); la muestra fue seleccionada aleatoriamente de todo el país con el propósito de asignar la misma probabilidad a cada una ellas. Para el estudio se recurrió y obtuvo acceso a información financiera (costos, precios, ventas, márgenes, etc.) de una compañía del rubro con amplia proyección y representación en el mercado salvadoreño; a parte de las encuestas y entrevistas que se practicaron en otras empresas y entidades gubernamentales; como también consultas de material bibliográfico técnico y legal. Lo anterior contribuyó a la recopilación y análisis de información de forma tal, que ha permitido identificar los siguientes aspectos fundamentales de la investigación: Actualmente la industria farmacéutica no ha disminuido los precios de los medicamentos, debido a que la Dirección Nacional de Medicamentos (DNM) no ha emitido el reglamento de la Ley que regulará los precios de las medicinas; una de las acciones tomadas por la Dirección es auxiliarse de la Defensoría del Consumidor para verificar que no existan aumentos en los precios. Existen laboratorios farmacéuticos que poseen su propia cadena de farmacias de venta al público, a las cuales dejan un margen de venta de hasta un 25% sobre su precio de compra; en base a ese monto las farmacias hacen el descuento por medicamentos según sus políticas ó convenios comerciales. La prohibición de regalías, comisiones y cualquier otro tipo de dadivas por parte de los laboratorios a los dependientes de farmacias, médicos, o instituciones de distribución de medicamentos; a representado un ahorro material dentro de los gastos de venta de los laboratorios farmacéuticos, por lo que puede hacer uso de mayor disponibilidad de efectivo. Existe un notable incremento en la línea de producción de medicamentos genéricos, debido a que serán más económicos en su precio al público con respecto a los de tipo innovador, consecuentemente; también en sus costos de producción. En base a escenarios financieros planteados y proyectados, se percibe un notable impacto financiero en las compañías farmacéuticas; principalmente por la regulación de precios de los medicamentos y la prohibición del pago de dádivas a dependientes de farmacias, farmacias, doctores y demás compañías distribuidoras de medicamentos.
Resumo:
Objetivo general: Aplicar la escala RIPASA (Raja Isteri Pengiran Anak Saleha Apendicitis) en las historias clínicas de pacientes con diagnóstico de apendicitis aguda en el Hospital Homero Castanier Crespo, Azogues enero a diciembre de 2014. Metodología: Se realizó un estudio descriptivo - retrospectivo, cuyo universo fueron las historias clínicas de 266 pacientes con diagnóstico de apendicitis aguda del Hospital Homero Castanier en el 2014. Se aplicaron formularios previamente elaborados. Los datos se analizaron con los programas SPSS 15.0 y Excel, utilizando distribuciones de frecuencia y porcentajes. Resultados: Se estudiaron 266 casos de los cuales el 83.5% fueron menores de 40 años; el 53.8% correspondió a mujeres, siendo en menor porcentaje los casos de hombres con 46.2%. Del total de casos estudiados el 94.7% tuvieron diagnóstico macroscópico, y aplicando la escala de RIPASA, alta probabilidad fueron 157 casos con 59% y diagnóstico de apendicitis aguda fueron 73 casos representando el 27.4%. Conclusiones: RIPASA demostró ser una herramienta útil que nos puede facilitar el diagnóstico de apendicitis aguda ya que tiene mayor sensibilidad y especificidad que otras escalas, y en nuestro estudio observamos que el puntaje correspondiente a alta probabilidad y diagnóstico de apendicitis aguda fue 88.49% de los casos con diagnóstico macroscópico. Además observamos que los signos y síntomas investigados variaron en su frecuencia en comparación con otros estudios, demostrando que en ésta patología la clínica es incierta y por lo tanto de difícil diagnóstico, por lo cual utilizar ésta escala ayudaría al diagnóstico certero
Resumo:
OBJETIVO: Elaborar una ecuación de búsqueda que permita recuperar la producción científica académico institucional brasileña, aplicada al tema de la actividad física. MÉTODOS: La ecuación de búsqueda consistió en la unión booleana del descriptor «ejercicio» asociado por el booleano AND, al nombre de las distintas instituciones académicas asociadas, a su vez, mediante el conector OR. La búsqueda en MEDLINE, a través de PubMed se realizó el 16/11/2008. Las instituciones se seleccionaron según la clasificación de Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes) para los convenios interuniversitarios. RESULTADOS: Se recuperó un total de 407 referencias, de las cuales, 0,9% era sobre ejercicio y el 0,5% de producción científica académica brasileña, indexadas en MEDLINE, en la fecha de la consulta. Al comparar con la revisión manual efectuada, la ecuación de búsqueda (descriptor + filtro institucional) manifestó una sensibilidad del 99% y una especificidad del 100%. CONCLUSIONES: El filtro académico institucional presentó alta sensibilidad y especificidad, que es a su vez aplicable a otras áreas del conocimiento relacionadas con las ciencias de la salud. Sería conveniente que las instituciones académicas establecieran su "nombre/marca" con el fin de poder rescatar de forma eficiente su literatura científica.