1000 resultados para ENDOSCOPIA - UTILIZACIÓN


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El efecto invernadero provocado por la emisión masiva de CO2 derivado de la combustión de derivados fósiles, entre otros, está provocando serios problemas ambientales que afectan a ecosistemas de todo el planeta. Para reducir las emisiones se emplea la ciencia para diseñar nuevos métodos para capturar CO2 proveniente de la industria, transporte, energía, etc., y así causar el mínimo impacto ambiental posible hasta que dispongamos de la tecnología suficiente para abastecer la demanda energética por fuentes renovables. Entre las distintas tecnologías existentes, el trabajo pretende desarrollar un material sintético basado en calcio para captura Post-Combustión de CO2 en condiciones de presión atmosférica y alta temperatura (750 ºC) para la principal aplicación en centrales termoeléctricas. El material ha sido sintetizado por duplicado aplicando una caracterización de área superficial BET, microestructura con MEB, detección de fases con XRD y finalmente un estudio de la captura de CO2 con microbalanza de suspensión magnética. También es objetivo del trabajo estudiar el comportamiento de captura del material cuando existe la presencia de agua y/o SO2 éste normalmente presente en los gases de salida procedentes de la combustión de combustibles fósiles, tal como carbón, petróleo o gas natural. De nuevo las técnicas mencionadas han sido utilizadas para el estudio del comportamiento de captura. El material, tiene una captura de CO2 superior a otros materiales utilizados con el mismo fin. Se comporta mejor en presencia de agua y se anula la capacidad de captura por la formación de CaSO4, si en el flujo de gases está presente SO2 en una concentración mínima del 0,95%. Finalmente se realiza una breve mención sobre el posible impacto ambiental de la implantación del material así como un pequeño análisis de costes asociados a la utilización del mismo en comparación con otro material utilizado actualmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT: El proceso de decisión de compra del consumidor turístico viene condicionado en gran medida por la imagen que éste tiene de los diferentes destinos que configuran su campo de elección. En un mercado turístico internacional altamente competitivo, los responsables de las políticas de desarrollo y promoción de los destinos buscan estrategias de diferenciación que les permitan posicionarse en los segmentos de mercado más adecuados para su producto, con el fin de conseguir mejorar su poder de atracción de visitantes e incrementar o consolidar los beneficios económicos que la actividad turística genera en su territorio. En este sentido, el objetivo principal que nos planteamos en este trabajo es el análisis empírico de los factores que determinan la formación de la imagen de la ciudad de Tarragona como destino turístico de patrimonio cultural. Sin duda, la declaración como Patrimonio Mundial por parte de la UNESCO, en el año 2000, del conjunto artístico y monumental con el que cuenta la ciudad de Tarragona, supuso un importante reconocimiento internacional de la calidad de los elementos culturales y patrimoniales que ofrece la Ciudad a todos los visitantes que la escogen como destino turístico. También representa una oportunidad estratégica para impulsar la promoción turística de la Ciudad y su consolidación como destino singularizado por sus características culturales y patrimoniales. Nuestro trabajo se basa en la utilización de técnicas estructuradas para identificar los factores que determinan los componentes de la imagen turística de Tarragona y que influyen de manera decisiva en el proceso de elección del destino por parte de sus visitantes. Además de poder conocer la imagen turística global de Tarragona, consideramos que la heterogeneidad de sus visitantes requiere un estudio más detallado que nos permita segmentar la tipología de los visitantes. La información que nos aportan estos resultados nos han de permitir comparar la imagen percibida por los turistas que visitan Tarragona, con los objetivos de diseño de producto y promoción del destino que tienen los responsables de la política turística local. Key words: Imagen de destino turístico; análisis factorial; análisis cluster; política turística local.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquest projecte té com a objectiu l’estudi de l’estat ambiental dels hotels del municipi de Sitges i l’estudi d’aprofitament dels recursos hídrics i energètics característics d’aquesta zona del Mediterrani per hotels de 4 i 5 estrelles. Sitges és un municipi que al període estival dobla la població, i que amb una superfície de 43,85 Km2 conta amb 35 hotels i apart pensions, hostals i càmpings, per tant, el turisme és l’activitat més important a Sitges. Per desenvolupar aquest projecte s’ha realitzat una enquesta senzilla sobre qualitat ambiental per conèixer el comportament ambiental dels diferents hotels. En aquest estudi han participat 15 dels 35 hotels del municipi, ja que el 49% d’aquests romanen tancats des d’Octubre fins a Març i dels 18 hotels restants 15 han accedit a formar part d’aquest estudi. A través d’una prova pilot s’ha avaluat la implantació del Distintiu de Garantia de Qualitat Ambiental a l’hotel Antemare i a l’hotel Sunway Playa Golf, aquests dos hotels pertanyen a la categoria de quatre estrelles, categoria que reuneix més nombre d’hotels i el tant per cent d’ocupació és major en comparació amb les altres categories. El DGQA és una ecoetiqueta de serveis que atorga la Generalitat de Catalunya a partir de la revisió de l’establiment per mitjà d’un tècnic autoritzat. S’ha analitzat l’aprofitament dels recursos local com, les aigües pluvials i la radiació solar en els hotels de 4 i 5 estrelles per obtenir l’autosuficiència individual dels 9 hotels objecte d’estudi. Els resultats obtinguts en aquest estudi reflecteixen la possibilitat de millorar l’estat ambiental dels establiments hotelers, duent a terme alguns criteris bàsics com, la recollida selectiva i una major implantació d’energies renovables, així com també la utilització d’aquestes per assolir un cert nivell d’autosuficiència energètica i hídrica. La prova pilot mostra que els dos hotels estudiats estan molt a prop d’aconseguir el DGQA, els vectors on s’haurien de fer millores són, informació ambiental, energia, aigua i residus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento refleja el estudio de investigación para la detección de factores que afectan al rendimiento en entornos multicore. Debido a la gran diversidad de arquitecturas multicore se ha definido un marco de trabajo, que consiste en la adopción de una arquitectura específica, un modelo de programación basado en paralelismo de datos, y aplicaciones del tipo Single Program Multiple Data. Una vez definido el marco de trabajo, se han evaluado los factores de rendimiento con especial atención al modelo de programación. Por este motivo, se ha analizado la librería de threads y la API OpenMP para detectar aquellas funciones sensibles de ser sintonizadas al permitir un comportamiento adaptativo de la aplicación al entorno, y que dependiendo de su adecuada utilización han de mejorar el rendimiento de la aplicación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el entorno actual, diversas ramas de las ciencias, tienen la necesidad de auxiliarse de la computación de altas prestaciones para la obtención de resultados a relativamente corto plazo. Ello es debido fundamentalmente, al alto volumen de información que necesita ser procesada y también al costo computacional que demandan dichos cálculos. El beneficio al realizar este procesamiento de manera distribuida y paralela, logra acortar los tiempos de espera en la obtención de los resultados y de esta forma posibilita una toma decisiones con mayor anticipación. Para soportar ello, existen fundamentalmente dos modelos de programación ampliamente extendidos: el modelo de paso de mensajes a través de librerías basadas en el estándar MPI, y el de memoria compartida con la utilización de OpenMP. Las aplicaciones híbridas son aquellas que combinan ambos modelos con el fin de aprovechar en cada caso, las potencialidades específicas del paralelismo en cada uno. Lamentablemente, la práctica ha demostrado que la utilización de esta combinación de modelos, no garantiza necesariamente una mejoría en el comportamiento de las aplicaciones. Por lo tanto, un análisis de los factores que influyen en el rendimiento de las mismas, nos beneficiaría a la hora de implementarlas pero también, sería un primer paso con el fin de llegar a predecir su comportamiento. Adicionalmente, supondría una vía para determinar que parámetros de la aplicación modificar con el fin de mejorar su rendimiento. En el trabajo actual nos proponemos definir una metodología para la identificación de factores de rendimiento en aplicaciones híbridas y en congruencia, la identificación de algunos factores que influyen en el rendimiento de las mismas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La predicción de incendios forestales es uno de los grandes retos de la comunidad científica debido al impacto medioambiental, humano y económico que tienen en la sociedad. El comportamiento de este fenómeno es difícil de modelar debido a la gran cantidad de variables que intervienen y la dificultad que implica su correcta medición. Los simuladores de fuego son herramientas muy útiles pero, actualmente, los resultados que obtenemos tienen un alto grado de imprecisión. Desde nuestro grupo se ha trabajado en la predicción en dos etapas, donde antes de realizar cualquier predicción, se incorpora una etapa de ajuste de los parámetros de entrada para obtener mejores predicciones. Pese a la mejora que supone este nuevo paradigma de predicción, las simulaciones sobre incendios reales tienen un alto grado de error por el efecto de las condiciones meteorológicas que, usualmente, varían de manera notable durante el transcurso de la simulación. Uno de los factores más determinantes en el comportamiento de un incendio, junto con las características del terreno, es el viento. Los modelos de predicción son extremadamente sensibles al cambio en los componentes de dirección y velocidad del viento por lo que cualquier mejora que podamos introducir para mejorar la calidad de estas componentes influye directamente en la calidad de la predicción. Nuestro sistema de predicción utiliza la dirección y velocidad del viento de forma global en todo el terreno, y lo que proponemos con este trabajo es introducir un modelo de vientos que nos permita generar vientos locales en todas las celdas en las que se divide el terreno. Este viento local dependerá del viento general y de las características del terreno de dichas celdas. Consideramos que la utilización de un viento general no es suficiente para realizar una buena predicción del comportamiento de un incendio y hemos comprobado que la inclusión de un simulador de campo de vientos en nuestro sistema puede llegar a mejorar nuestras predicciones considerablemente. Los resultados obtenidos en los experimentos sintéticos que hemos realizado nos hacen ser optimistas, puesto que consideramos que la inclusión de componentes de viento locales permitirá mejorar nuestras predicciones en incendios reales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

For the execution of the scientific applications, different methods have been proposed to dynamically provide execution environments for such applications that hide the complexity of underlying distributed and heterogeneous infrastructures. Recently virtualization has emerged as a promising technology to provide such environments. Virtualization is a technology that abstracts away the details of physical hardware and provides virtualized resources for high-level scientific applications. Virtualization offers a cost-effective and flexible way to use and manage computing resources. Such an abstraction is appealing in Grid computing and Cloud computing for better matching jobs (applications) to computational resources. This work applies the virtualization concept to the Condor dynamic resource management system by using Condor Virtual Universe to harvest the existing virtual computing resources to their maximum utility. It allows existing computing resources to be dynamically provisioned at run-time by users based on application requirements instead of statically at design-time thereby lay the basis for efficient use of the available resources, thus providing way for the efficient use of the available resources.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudi observacional i prospectiu que analitza la eficàcia de l’Ex-press mini glaucoma shunt en 20 ulls que presenten un control deficient de la PIO amb el tractament mèdic i es practica cirurgia. El període de seguiment és d’un any i s’analitza el descens de la PIO a la setmana, al mes, als 6 mesos i a l’any en relació amb la PIO prèvia. Al mateix temps analitzarem la necessitat d’utilitzar tractament mèdic posterior a la intervenció quirúrgica i les complicacions derivades de la utilització de l’implant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUCCION: La Acalasia es un trastorno motor primario causado por la pérdida selectiva de las motoneuronas del plexo mientérico esofágico que ocasiona aumento en la presión basal y relajación incompleta del esfínter esofágico inferior (EEI), y la desaparición de la peristalsis esofágica. OBJETIVOS. Correlacionar los síntomas clínicos de los pacientes con alteraciones manométricas y los hallazgos morfológicos (radiología y endoscopia) en una cohorte de pacientes con Acalasia. PACIENTES Y MÉTODOS. Estudio retrospectivo de 37 pacientes, 22 (59.4%) hombres y 15 (40,5%) mujeres, con una edad media de 57,45 años con Acalasia estudiados entre 2000-2009, mediante evaluación clínica según escalas de Zanitoto, Atkinson y clasificación manométrica de acuerdo a los criterios de Pandolfino. RESULTADOS. Todos los pacientes consultaron por disfagia esofágica de 34,7 meses de evolución en promedio, moderada en 15 pacientes (40,5%, necesidad de agua para pasar), y en 8 (21,6%) con obstrucción severa. En el momento del diagnóstico el 35% de los pacientes requerían dieta triturada y el 35% sólo podían pasar líquidos; 14 pacientes presentaban pérdida de peso (37,8%). Los estudios morfológicos sólo orientaron el diagnóstico de Acalasia en un 48,6% de los pacientes (endoscopia sugestiva en un 37,8% y TGE en el 10,8%). El 70.2% de los pacientes presentaron un patrón manométrico típico y un 13.5% un patrón de Acalasia vigorosa. El 31% de los pacientes presentaron una pH-metría de 24 h con reflujo gastroesofágico patológico y un 10,5% un patrón sugestivo de retención y fermentación esofágica. CONCLUSIÓN. El diagnóstico de los pacientes con Acalasia es tardío, y se realiza con síntomas clínicos severos de disfagia esofágica en los que las pruebas de diagnóstico morfológico (TEGD, endoscopia) ofrecen un bajo rendimiento. La manometría y pH-metría de 24 h ofrece un diagnóstico precoz y preciso, el tipo de Acalasia y de la existencia de reflujo gastroesofágico o acidificación por retención. La información proporcionada por estas exploraciones funcionales debe ser tenida en cuenta para indicar el tratamiento de los pacientes con Acalasia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducció: La citologia urinària positiva en context de cistoscopia sense evidència de tumor macroscòpic obliga a continuar el seu estudi. En el nostre centre es realitzen biòpsies vesicals múltiples normatitzades (BMN) i citologia ureteral selectiva en aquest casos. Material i mètodes: Estudi retrospectiu de 70 pacients amb citologia urinària positiva en absència de tumor macroscòpic. Es van avaluar els resultats de totes les biòpsies vesicals múltiples i les citologies ureterals selectives realitzades. Resultats: Es va diagnosticar CIS vesical em 45 (64,3%) pacients. Es va detectar citologia ureteral positiva em 12: cinc (7,2%) en el costat esquerre i set (10%) en el dret. Es va observar CIS vesical concomitant em 2 de 5 pacients amb PAP ureteral positiu esquerra i em 5 de 7 amb PAP ureteral positiu dret. Conclusions: La biòpsia múltiple normatitzada (BMN) és útil per a aquest casos. Els pobres resultats obtinguts en citologia ureteral selectiva posen en dubte la rendibilitat de la seva utilització sistemàtica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cirurgia percutània en el tractament del hallux valgus és cada vegada més utilitzada, encara que compta amb limitacions en els casos severs. Es tracta d'un estudi retrospectiu en el qual s'analitzen estadísticament els resultats clínics, radiològics i funcionals del tractament quirúrgic del Hallux Valgus sever mitjançant cirurgia percutània amb la col•locació d'un dispositiu intermetatarsiano. Hi ha una bona correcció de l'angle intermetatarsiano i de l'angle hallux valgus, així com una millora clínica i funcional estadísticament significativa amb la utilització d'aquesta tècnica, sent els seus resultats comparables a aquells obtinguts amb la cirurgia oberta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Investigación producida a partir de una estancia en la Université Paul Sabatier, Toulouse III - CNRS, entre 2007 y 2009. Durante los últimos años la investigación centrada en nuevos materiales de tamaño nanoscòpico (nanopartículas, quantum dots, nanotubos de carbono,...) ha experimentado un crecimiento considerable debido a las especiales propiedades de los "nanoobjetos" con respecto a magnetismo, catálisis, conductividad eléctrica, etc ... Sin embargo, hoy en día todavía existen pocas aplicaciones de las nanopartículas en temas medioambientales. Uno de los motivos de esta situación es la posible toxicidad de los nanoobjetos, pero existe también una dificultad tecnológica dado que las nanopartículas tienden a agregarse y es muy difícil manipularlas sin que pierdan sus propiedades especiales. Así, aunque la preparación de materiales catalíticos nanoestructurados es muy interesante, es necesario definir nuevas estrategias para prepararlos. Este proyecto de investigación tiene como objetivo principal la preparación de nuevas membranas catalíticas con nanopartículas metálicas en el interior para aplicaciones de tratamiento de agua. La innovación principal de este proyecto consiste en que las nanopartículas no son introducidas en la matriz polimérica una vez preformadas sino que se hacen crecer en el interior de la matriz polimérica mediante una síntesis intermatricial. El único requisito es que la matriz polimérica contenga grupos funcionales capaces de interaccionar con los precursores de las nanopartículas. Una vez finalizado el proyecto se puede afirmar que se han logrado parte de los objetivos planteados inicialmente. Concreamente ha quedado demostrado que se pueden sintetizar nanopartículas metálicas de metales nobles (platino y paladio) en membranas de fibra hueca de micro- y ultrafiltración siguiendo dos metodologías diferentes: modificación fotoquímica de polímeros y deposición de multicapas de polielectrolitos. Los nuevos materiales son efectivos en la catálisis de reducción de un compuesto modelo (4-nitrofenol con borohidruro de sodio) y, en general, los resultados han sido satisfactorios. Sin embargo, se ha puesto de manifiesto que el uso de un reactivo que genera hidrógeno gas en contacto con la solución acuosa dificulta enormemente la implementación de la reacción catalítica al ser el medio de la membrana una matriz porosa. Así, como conclusión principal se puede decir que se han encontrado las limitaciones de esta aproximación y se sugieren dos posibilidades de continuidad: la utilización de las membranas sintetizadas en contactores gas-líquido o bien el estudio y optimización del sistema de membrana en configuración de membranas planas, un objetivo más asequible dada su menor complejidad. Esta investigación se ha realizado en el seno del “Laboratoire de Génie Chimique” de Toulouse y del Departamento de Química de la Michigan State University y ha sido posible gracias a un proyecto financiado por la “Agence National pour la Recherce” y al programa PERMEANT entre el CNRS y la NSF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio hasta el momento de la relación entre positivismo criminológico e ideario anarquista de entre siglos (XIX-XX), ha evidenciado la trascendencia del estudio de aquellos dos pensamiento en esa etapa histórica. El desarrollo de la Criminología como ciencia, así como del verdadero núcleo teórico y práctico del anarquismo español, se encuentra en aquel momento histórico de cambio de siglo. La construcción del tipo criminal anarquista, la política criminal desarrollada al efecto, así como las críticas, propuesta y posturas acerca de la cuestión criminal por parte de los anarquistas, revelan un auge discursivo y científico de ambas partes que estaban discutiendo sobre temas verdaderamente de fondo: aquellos sobre la naturaleza, el progreso y la forma de sociedad y Estado. Más allá de las disputas con aquellos autores de la Scuola Italiana, los anarquistas españoles, avivaron un interés decisivo en otro tipo de teorías como el darwinismo o el neomalthusianismo. Más allá del vehemente rechazo a la cárcel y al sistema estatal y capitalista en su conjunto, el desarrollo y utilización en propio sentido de la Ciencia, se fundamentó como herramienta política básica para el pensamiento anarquista. Por su parte, esa misma Ciencia positiva, era el comodín “objetivo” que se usaba de herramienta para una criminalización y persecución política de numerosas disidencias. Desentrañar, por un lado, cómo se articuló cada uno de esos discursos y qué implicaciones y relaciones tuvo, y por otro, qué herencia pervive de aquellas construcciones en nuestro sistema penal y político, son los puntos centrales de esta Tesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tolerancia a fallos es una línea de investigación que ha adquirido una importancia relevante con el aumento de la capacidad de cómputo de los súper-computadores actuales. Esto es debido a que con el aumento del poder de procesamiento viene un aumento en la cantidad de componentes que trae consigo una mayor cantidad de fallos. Las estrategias de tolerancia a fallos actuales en su mayoría son centralizadas y estas no escalan cuando se utiliza una gran cantidad de procesos, dado que se requiere sincronización entre todos ellos para realizar las tareas de tolerancia a fallos. Además la necesidad de mantener las prestaciones en programas paralelos es crucial, tanto en presencia como en ausencia de fallos. Teniendo en cuenta lo citado, este trabajo se ha centrado en una arquitectura tolerante a fallos descentralizada (RADIC – Redundant Array of Distributed and Independant Controllers) que busca mantener las prestaciones iniciales y garantizar la menor sobrecarga posible para reconfigurar el sistema en caso de fallos. La implementación de esta arquitectura se ha llevado a cabo en la librería de paso de mensajes denominada Open MPI, la misma es actualmente una de las más utilizadas en el mundo científico para la ejecución de programas paralelos que utilizan una plataforma de paso de mensajes. Las pruebas iniciales demuestran que el sistema introduce mínima sobrecarga para llevar a cabo las tareas correspondientes a la tolerancia a fallos. MPI es un estándar por defecto fail-stop, y en determinadas implementaciones que añaden cierto nivel de tolerancia, las estrategias más utilizadas son coordinadas. En RADIC cuando ocurre un fallo el proceso se recupera en otro nodo volviendo a un estado anterior que ha sido almacenado previamente mediante la utilización de checkpoints no coordinados y la relectura de mensajes desde el log de eventos. Durante la recuperación, las comunicaciones con el proceso en cuestión deben ser retrasadas y redirigidas hacia la nueva ubicación del proceso. Restaurar procesos en un lugar donde ya existen procesos sobrecarga la ejecución disminuyendo las prestaciones, por lo cual en este trabajo se propone la utilización de nodos spare para la recuperar en ellos a los procesos que fallan, evitando de esta forma la sobrecarga en nodos que ya tienen trabajo. En este trabajo se muestra un diseño propuesto para gestionar de un modo automático y descentralizado la recuperación en nodos spare en un entorno Open MPI y se presenta un análisis del impacto en las prestaciones que tiene este diseño. Resultados iniciales muestran una degradación significativa cuando a lo largo de la ejecución ocurren varios fallos y no se utilizan spares y sin embargo utilizándolos se restablece la configuración inicial y se mantienen las prestaciones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rigidez arterial es un parámetro establecido dentro de la valoración del riesgo cardio-vascular. Actualmente disponemos de múltiples métodos para determinar la velocidad de onda de pulso (VOP) y entre ellos los más utilizados son los métodos mecánicos, como el Complior o el Sphigmocor, que precisan de dispositivos específicos y una inversión importante en aprendizaje y tiempo de exploración. La utilización del doppler guiado por ecografía 2D es una buena alternativa a estos métodos. Realizamos un estudio comparativo para evaluar la fiabilidad del eco-doppler en la medida de la VOP carótida-femoral respecto al método Complior. Se estudió la VOP carótida-femoral utilizando los dos sistemas en 40 pacientes, mostrando ambos métodos muy buena concordancia (R=0’91). En el análisis de reproducibilidad de la VOP por doppler no se hallaron diferencias intra e interobservador. En base a los resultados, el estudio demuestra que la ecografía doppler puede ser usada para medir la VOP aórtica de manera fiable y reproducible, similar otros métodos más establecidos.