39 resultados para Pretratamiento
Resumo:
El presente documento pretende definir las obras e instalaciones necesarias para depurar las aguas de la cuenca este de Gijón. Con él se definirán las labores de construcción y explotación inicial de las obras de la estación depuradora de aguas residuales este de Gijón. La actuación se ubica en la zona costera al este de concejo de Gijón, entre el río Piles como límite occidental del ámbito de estudio, y el arroyo de la Ñora como límite oriental del mismo, estando al norte de la carretera N-632. El término municipal donde se localiza es Gijón, provincia de Asturias y Comunidad Autónoma del Principado de Asturias. Las obras descritas en el proyecto consisten en la construcción de una E.D.A.R. para depurar 225.000 habitantes equivalentes. Se conserva el pretratamiento existente y se incluye un tratamiento secundario con nitrificación-desnitrificación y decantación secundaria. La línea de fangos consistirá en espesadores más digestión anaerobia. En el presente documento se analizarán con detalle todos los parámetros necesarios para la definición de la E.D.A.R.
Resumo:
Lupinus mariae-josephae H. Pascual es un altramuz endémico de un reducido número de sitios en la Comunidad Valenciana, donde coloniza sustratos de ?terra rossa? sobre afloramientos de lapiaz. Descrito en 2004 a partir de plantas cultivadas, no pudo localizarse en campo hasta 2006, y el hallazgo de sus poblaciones ha estado estrechamente ligado a topónimos relativos a su nombre popular, ?tramús? en valenciano. Se ha demostrado la clara independencia genética, y en consecuencia el valor como ?buen taxon? de esta especie. Hasta ahora se han caracterizado y censado cinco poblaciones silvestres en diferentes localidades, y en todas ellas se observan fuertes fluctuaciones interanuales de sus efectivos, a veces acompañadas de importantes diferencias de vigor de los ejemplares; tres de estas poblaciones están actualmente protegidas mediante sendas microrreservas de flora. Algunos de estos núcleos poblacionales se componen en años concretos de formas poco vigorosas, que a menudo sólo producen 1-2 frutos con 1-2 semillas; por el contrario, las formas más vigorosas pueden producir varias docenas de semillas. La emergencia de plántulas se produce con gran probabilidad tras años de progresiva escarificación de la cubierta de las semillas en el suelo, y probablemente se acelera por procesos de reducción de la cubierta vegetal como los incendios forestales. La germinación experimental ex situ sólo se consigue satisfactoriamente mediante el pretratamiento de escaldado de las semillas.
Resumo:
A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.
Resumo:
Esta Tesis Doctoral tiene como principal objetivo el obtener una cadena de tratamientos seguros de aguas seriados que nos permita asegurar la calidad de las aguas para consumo humano en caso de emergencias, de tal forma que se minimicen los efectos de acciones hostiles, como sabotajes o actos terroristas, desastres naturales, etc y buscar soluciones adecuadas para garantizar en este caso la salud. Las plantas de tratamientos de aguas existentes comercialmente no aseguran dicha calidad y la documentación sobre el tema presenta vacíos de conocimiento, contradicciones entre resultados de investigaciones o insostenibilidad de conclusiones de las mismas. Estas carencias nos permiten determinar los aspectos a tratar durante la investigación. Por ello, este objetivo se concretó en tres acciones: Investigar sobre rendimientos de plantas convencionales en eliminación de microorganismos y productos tóxicos y peligrosos. Introducir mejoras que garanticen el rendimiento de las plantas convencionales. Investigar sobre la conveniencia de complementar las instalaciones existentes buscando seguridad y garantía sanitaria. Y se desarrollaron tres líneas de investigación: LI 1 “Inorgánicos”: Investigación sobre la eliminación de los metales boro, cobre y molibdeno mediante procesos de intercambio iónico y de coagulaciónfloculación- decantación. LI 2 “Compuestos Orgánicos Volátiles”: Investigación sobre la eliminación de los compuestos orgánicos 1,1 dicloroetano, 1,2 dicloroetano, clorobenceno, 1,3 dicloropropeno y hexacloro 1,3 butadieno mediante procesos de carbón activo granular y de oxidación avanzada. LI 3 “Plantas portátiles”: Investigación sobre plantas existentes portátiles para verificar su rendimiento teórico y proponer mejoras. Estas líneas de investigación se desarrollaron tanto en el nivel teórico como en el empírico, bien sea en laboratorio como en campo. A lo largo del documento se demuestra que las principales fuentes de contaminación, salvo la degradación de yacimientos naturales, proceden de la actividad humana (efluentes industriales y agrícolas, aguas residuales y actividades beligerantes) que provocan un amplio espectro de enfermedades por lo que dificultan tanto la definición de la fuente como la anticipada detección de la enfermedad. Las principales conclusiones que se obtuvieron están relacionadas con el rendimiento de eliminación de los parámetros tras la aplicación de los procesos y plantas de tratamiento de aguas anteriormente reseñadas. Sin embargo, el verdadero elemento designador de originalidad de esta Tesis Doctoral, tal como se ha reseñado arriba, radica en la definición de un sistema seriado de procesos de tratamiento de aguas que asegura la calidad en caso de emergencia. Éste se define en el siguiente orden: pretratamiento, oxidación, coagulación-floculación-decantación, filtración por arena, intercambio iónico, carbón activo granular, microfiltración, radiación UV, ósmosis inversa, radiación UV y cloración final. The main objective of this Thesis is to obtain a chain of stepwise safe water treatments that allow us to ensure the quality of water for human consumption in case of emergencies, so that the effects of hostile actions, such as sabotage or terrorism, natural disasters, etc. and seek appropriate solutions in this case to ensure health. The existing commercial water treatment plants do not ensure quality, and the documentation on the subject presents knowledge gaps or contradictions. These gaps allow us to determine the issues to be discussed during the investigation. Therefore, this objective was manifested in three actions: Researching yields in commercial plants and microorganisms, or toxic and dangerous products removal. Improvements to ensure the performance of conventional plants. Inquire about the advisability of implementing existing facilities for safety and health guarantee. And three lines of research are developed: LI 1 “Inorganic elements”: Research removing metals iron, copper and molybdenum by ion exchange processes and coagulation-flocculation-decantation. LI 2 “Volatile Organic Compounds”: Research removing organic compounds 1,1 dichloroethane, 1,2 dichloroethane, chlorobenzene, 1,3-dichloropropene and 1,3-butadiene hexachloro through processes of granular activated carbon and advanced oxidation. LI 3 “Compact Water Treatment Plants”: Research on existing packaged plants to verify theoretical performance and suggest improvements. These lines of research are developed both theoretically and empirically, both in the laboratory and in the field. Throughout the document, it is evident that the main sources of pollution, other than the degradation of natural deposits, come from human activity (industrial and agricultural effluents, sewage and belligerent activities) which cause a broad spectrum of diseases which hamper both the definition of the source and the early detection of the disease. The main conclusions drawn are related to both the removal efficiency parameters after application of processes and treatment plants outlined above water. However, the real designator of originality of this thesis, such as outlined above, lies in the definition of a serial system water treatment processes assuring quality in case of emergency. This is defined in the following order: pretreatment, oxidation, coagulation-flocculation-sedimentation, sand filtration, ion exchange, granular activated carbon, microfiltration, UV radiation, reverse osmosis, UV radiation and final chlorination.
Resumo:
El proyecto consta de dos partes principales y dos anexos. La primera es teórica, en ella realizamos; a modo de introducción, un estudio sobre el tratamiento digital de la imagen, desarrollando las principales técnicas de tratamiento y análisis de imágenes que pudimos estudiar durante la carrera. Una vez desgranado el análisis nos centraremos en la correlación digital de imagen, su evolución y distintas técnicas, donde nos centramos en la correlación cruzada normalizada que usamos posteriormente para la correlación de imágenes con Matlab. La segunda parte consiste en la implementación de un sencillo programa mediante Matlab en el que podremos evaluar y analizar las diferencias entre dos o más imágenes, pudiendo observar gráficamente la desviación en milímetros entre varias imágenes y su dirección con vectores. Posteriormente analizamos los resultados obtenidos y proponemos posibles mejoras para futuros proyectos de correlación de imágenes digitales. Por último, incluimos un par de anexos en los que incluimos un tutorial para automatizar acciones con Adobe Photoshop para facilitar el pretratamiento de fotografías antes de analizarlas con el script y una posible práctica de laboratorio para futuros alumnos de la escuela utilizando nuestro script de Matlab. ABSTRACT. The project involves two main parts and two annexes. The first is theoretical, it performed; by way of introduction, a study on digital image processing, developing the main treatment techniques and image analysis we were able to study along our career. Once shelled analysis we will focus on digital image correlation, evolution and different techniques, where we focus on normalized cross-correlation which we use later for the correlation of images with Matlab. The second part is the implementation of a simple program using Matlab where we can evaluate and analyze the differences between two or more images and can graphically see the deviation in millimeters between various images and their direction vectors. Then we analyze the results and propose possible improvements for future projects correlation of digital images. Finally, we have a couple of annexes in which we include a tutorial to automate actions with Adobe Photoshop to facilitate pretreatment photographs before analyzing the script and a possible lab for future school students using our Matlab script.
Resumo:
Los materiales lignocelulósicos son potenciales precursores de recursos bioenergéticos, por lo que sería interesante desarrollar tecnologías capaces de capturar su energía y utilizarla en el sector del transporte como combustibles. El azúcar contenido en los materiales lignocelulósicos puede ser liberado por medio de la hidrólisis y usado después por microorganismos. El objetivo del proyecto es encontrar un método de separación de la celulosa y la biomasa de chopo en monómeros de glucosa por medio de la hidrólisis. Para ello se han estudiado tres métodos de hidrólisis: la mecano-catálisis, utilizando diferentes tipos de molinos y caolinita como catalizador, la hidrólisis con líquidos iónicos, estudiando la viabilidad de los reactivos [C4mim+][I-] y [C4mim+][PF6-], y la hidrólisis ácida, usando HCl en concentraciones y temperaturas distintas para optimizar el proceso. En todos los casos se ha llevado a cabo un pretratamiento y se ha aplicado el método de TLC como verificación del proceso. Los tres métodos se han comparado y se ha desarrollado un método de correlación entre la mancha de TLC y la concentración del producto.
Resumo:
Objetivos: evaluar las características de la práctica basada en la evidencia (PBE) en contexto asistencial; su efectividad sobre la sintomatología depresiva; las variables asociadas a la misma; y su eficiencia. Método: estudio retrospectivo sobre una muestra propositiva compuesta por 89 casos diagnosticados de trastorno depresivo mayor (80,9%) o de distimia (19,1%) en la Clínica Universitaria de Psicología de la UCM. Un 78,7% de los casos eran mujeres, y un 48,3% de los casos seguía un tratamiento farmacológico; la duración promedio del problema fue 30,9 meses y la puntuación promedio en el BDI-‐II en el pretratamiento fue 33 puntos. Diversas variables fueron evaluadas para responder a los objetivos. Resultados: los pacientes recibieron un tratamiento individualizado y autocorrectivo basado sobre todo en psicoeducación, reestructuración cognitiva, activación conductual, técnicas de relajación, entrenamiento en solución de problemas y en habilidades sociales, durante unas 18 sesiones semanales. Un 35,96% de los pacientes terminó prematuramente la intervención, estando la adherencia a las técnicas y a las sesiones y el índice de severidad global del SCL-‐90-‐R asociados de modo significativo al abandono. En total, un 80,3% de los pacientes alcanzó un cambio clínicamente significativo de la sintomatología depresiva según el BDI-‐II, y un 86,2% según el BAI. La reducción en las puntuaciones del BDI-‐II se asoció con el entrenamiento en habilidades sociales; además, los pacientes más graves y los diagnosticados a partir del BDI-‐II y el juicio clínico mejoraron más. El tratamiento fue coste – efectivo en relación a la intervención aplicada en Atención Primaria (AP): el coste directo promedio de incrementar un 1% el porcentaje de la muestra que experimentó recuperación en AP fue mayor que el tratamiento psicológico basado en la evidencia en un 34,9% (sólo tratamiento) o en un 11,0% (tratamiento más evaluación) Discusión: se constata para este estudio que los tratamientos aplicados desde la perspectiva de la PBE para la depresión son similares a los tratamientos empíricamente apoyados, especialmente a la terapia cognitiva de Beck, aunque adicionan elementos a partir del juicio del clínico, que en el caso de las técnicas de relajación y la solución de problemas no parecen contribuir a la mejoría. La efectividad de la intervención fue comparable a la hallada en contextos asistenciales o investigadores, con un porcentaje de abandonos elevado, pero consistente con lo hallado en otros centros universitarios. La ausencia de un efecto significativo de la duración de las intervenciones, y la evidencia de que los pacientes que terminan prematuramente el tratamiento se beneficiaron del mismo es consistente con un modelo de “nivel suficiente de funcionamiento” (GEL), según el cual los pacientes continúan en la intervención hasta que han mejorado lo bastante según su criterio. La generalizabilidad de los resultados del estudio es elevada de acuerdo a criterios estandarizados. Entre las limitaciones del estudio están la ausencia de seguimiento a largo plazo; el elevado número de valores perdidos; y la naturaleza archivística del estudio. Conclusiones: este estudio viene a reforzar la evidencia sobre la efectividad de la PBE para los trastornos depresivos. Adicionalmente, la PBE resultó más cara pero más eficiente en cuanto a costes directos que la intervención desarrollada en AP, sin que su efectividad se viera reducida en pacientes más graves o más crónicos. Además, existe aún margen para incrementar su eficiencia y competitividad. A partir de estos resultados, se recomienda prolongar la intervención psicológica hasta la obtención de mejoría; emplear la formulación de casos como un medio para reducir la duración del tratamiento y prescindir de elementos superfluos, enfatizando en cambio el abordaje de la temática interpersonal en la depresión.
Resumo:
OBJETIVO Se analiza la eficacia de la terapia cognitivo-conductual centrada en el trauma en víctimas de atentados terroristas con trastorno por estrés postraumático (TEPT) o trastornos de ansiedad o depresivos a muy largo plazo (> 5 años después del atentado). Se pretende, así, engrosar el limitado conocimiento científico sobre la eficacia de los tratamientos en esta población concreta. MÉTODO Un grupo de 120 víctimas directas e indirectas de atentados terroristas cometidos en España una media de 18,43 años atrás, que presentaban aislada o concurrentemente trastorno por estrés postraumático (TEPT; 49,2%), trastorno depresivo mayor (TDM; 40,8%) y otros trastornos de ansiedad (75,8%), fueron aleatorizados en 16 sesiones de Terapia Cognitivo-Conductual (TCC) centrada en el trauma (grupo experimental) o 16 semanas de espera (grupo control). La TCC centrada en el trauma estaba basada en el protocolo de exposición prolongada de Foa y Rothbaum (1998) pero se le añadieron técnicas específicas para el manejo de los trastornos del estado de ánimo y trastornos de ansiedad, se hizo un mayor énfasis en la psicoeducación sobre las reacciones post traumáticas y en la reestructuración cognitiva y se añadieron estrategias de motivación, regulación emocional y terapia narrativa. De las 60 personas que fueron asignadas al grupo experimental, 25 (41,6%) rechazaron la terapia y 10 (28,6%) la abandonaron una vez iniciada. RESULTADOS Las personas del grupo experimental que completaron el tratamiento (n = 25) tenían puntuaciones medias en sintomatología postraumática (PCL), depresiva (BDIL-II) y de ansiedad (BAI) significativamente inferiores a las obtenidas en el pretratamiento. Ninguna de ellas presentó en el postratamiento TEPT ni TDM y se redujo significativamente el porcentaje de otros trastornos de ansiedad. Estos resultados fueron significativamente mejores que los del grupo de control. Se obtuvieron tamaños del efecto pre/post grandes (d PCL = 1,39; d BDI-II = 1,19; d BAI = 1,20) y grandes y medios entre grupos (d PCL = 0,84; d BDI-II = 0,69; d BAI = 0,88). Un 78,3%, 91,7% y 91,7% obtuvieron una puntuación media inferior a la puntuación C para la PCL, el BDI-II y el BAI, y un 56,5%, 45,8% y 54,2% mejoraron según el índice de cambio fiable. Los beneficios se mantuvieron a los 6 meses de seguimiento y el análisis de intención de tratar (n = 35) y el análisis de todas las personas que habían completado el tratamiento (incluyendo al grupo control; n = 40) confirmaron la significación de los datos. La terapia tenía efectos mejores sobre la comorbilidad triple (TEPT, trastornos depresivos y ansiosos), pero no se encontró un efecto positivo de la adición de psicofármacos, en todo caso, peores resultados (por ejemplo, en la puntuación del BAI y la muestra de intención de tratar). CONCLUSIONES Los resultados de este estudio, comparables a los de otros estudios específicos previos, sugieren que la TCC centrada en el trauma y adaptada a víctimas del terrorismo que sufren TEPT o trastornos de ansiedad o depresivos muchos años después de los atentados terroristas, es eficaz. Aunque se recomienda mejorar las técnicas de motivación, hacer nuevos estudios con tamaños muestrales más amplios, donde se realicen análisis de componentes, análisis de la fiabilidad y adherencia al protocolo y atendiendo a diferentes grupos de víctimas y factores de riesgo, los resultados de esta tesis doctoral sustentan firmemente la idea de que la terapia cognitivo-conductual centrada en el trauma debe ser el tratamiento de elección para víctimas del terrorismo con TEPT, TDM u otros trastornos de ansiedad, incluso cuando éstos se presentan de manera comórbida y crónica.
Resumo:
El presente trabajo de titulación tiene como finalidad la evaluación, el diagnóstico y la elaboración de un plan de mejoras que permita optimizar los procesos de depuración de las plantas de tratamiento de aguas residuales de los sectores Pambadel y Zhuringualo del Cantón Girón. En el diagnóstico de las PTAR se realizó la caracterización de los afluentes y efluentes; los valores obtenidos se compararon con la normativa ambiental TULSMA, a fin de evaluar el cumplimiento. Los resultados de laboratorio de los años 2014, 2015 y 2016junto con la valoración in situpermitieron determinar los porcentajes de eficiencia de las depuradoras. Laseficiencias alcanzadas en el 2014 fueron de 70,98% para Pambadel, 69,14% en Zhuringualo, en el año 2015 de -266,94% paraplanta de Pambadel, 66,03% para Zhuringualo, en el 2016 de 40,45% y 71,23% respectivamente. Al momento de comparar con la normativa encontramos incumplimiento en parámetros como: fósforo, coliformes totales y termotolerantes. También se efectuó un análisis social en el cual se encuestó a los pobladores de las zonas de influencia directa de las PTAR con la finalidad de conocer las necesidades y molestias que estas generan. Concluyendo que es necesaria la implementación del plan de mejoras que implica los siguientes procesos de optimización: un programa de mantenimiento emergente y remodelación de infraestructura deteriorada, la implementación de un laboratorio básico, la construcción de un sistema de pretratamiento basándose en los planos de diseño y la realización de estudios técnicos posteriores.