7 resultados para Limpieza
em Universidade Complutense de Madrid
Resumo:
En la actualidad, estudiar comunicación y, específicamente, periodismo es una necesidad, aunque, al mismo tiempo, es un desafío. Esto se justifica por el dinamismo del ecosistema mediático contemporáneo, que corresponde a los medios, a las tecnologías emergentes y a la sociedad, cada vez más participante de los procesos comunicacionales. De hecho, estas transformaciones han cambiado no sólo los procesos, sino, también, las componentes de los grupos profesionales que trabajan en la construcción de la noticia contemporánea, ahora convertida en multilenguaje y pensada para dispositivos antes no pensados, como los teléfonos móviles y las tabletas. Entre los cambios, se destaca el periodismo de datos que tiene en cuenta el fenómeno big data y los contenidos de información disponibles en la nube, informaciones muchas veces disfrazadas o desapercibidas entre contenidos no tan importantes. Para trabajar con estos contenidos y en escenarios emergentes binarios, se justifica la creciente participación de profesionales de las ciencias exactas y de las ingenierías en las salas de redacción de los medios, pues ahora es necesario pensar en la selección, limpieza y comprensión, además de construir el espacio de publicación bajo conceptos digitales para lo multiplataforma. Complementariamente, encontramos una sociedad cada vez más constructora de espacios y caminos para la circulación y retroalimentación de contenidos a través de los medios sociales, posicionándose estos como productores de contenido, es decir, en fuentes activas. Esta investigación de tesis doctoral se ha desarrollado con el objetivo de crear un medio social para el desarrollo del periodismo de datos que tiene como base conceptual la narrativa transmedia, los contenidos multiplataforma y el conectivismo, elementos clave para comprender las posibilidades y aprovechar el conocimiento colectivo disponible en la nube. Por tanto, se han compartido conocimientos y metodologías apropiadas para la investigación en los campos del periodismo y de la ingeniería, tornándose necesaria la inmersión en conceptos relacionados del periodismo, el periodismo de datos, lenguajes y la sociedad mediática para, al final, desarrollar un algoritmo bajo formato de diagrama de flujo, y sus respectivas interfaces, del medio social thirdnews, que sirviera como modelo de ejecución de programación del producto. Entre las metodologías adoptadas, se destacan la investigación bibliográfica y la investigación cuasi-experimental, que empieza a ser común en tesis sobre comunicación aplicada, además del concepto de modelaje de producto y el método Roadmap, utilizados con frecuencia en tesis de ingeniería de producción. Con las conclusiones de la tesis, se espera no sólo poner en práctica el desarrollo del medio social, sino, también, presentar reflexiones teóricas y prácticas sobre el periodismo de datos en las redacciones de los medios actuales.
Resumo:
La clasificación en subtipos moleculares de los aislados de L. monocytogenes procedentes de productos cárnicos y del ambiente de las plantas de procesado donde se elaboran, habitualmente muestra la presencia de un reducido número de cepas y la persistencia durante largos periodos de tiempo de cepas específicas que sobreviven a la limpieza y la desinfección. Entre los mecanismos que facilitan la supervivencia de L. monocytogenes en el ambiente de las plantas de procesado de alimentos se incluyen la formación de biofilm, la adquisición de resistencia a antimicrobianos y la resistencia al estrés. El objetivo inicial de esta tesis fue analizar los diferentes subtipos de L. monocytogenes que se encontraban contaminando el ambiente y los productos de una planta de sacrificio y elaboración de productos de cerdo ibérico (Planta A) durante un periodo de tres años, con el fin de identificar las rutas de contaminación y posibles patrones de persistencia. Mediante electroforesis en gel en campo pulsante (PFGE) se identificaron 29 pulsotipos diferentes, ocho de los cuales se consideraron persistentes. La distribución en el ambiente y en los productos de tres pulsotipos predominantes generó patrones de contaminación específicos de cada uno de ellos, que mostraron respuestas diferentes ante las medidas correctoras que se adoptaron en la planta. Estos resultados destacan la importancia de la caracterización molecular de los subtipos de L. monocytogenes para identificar las rutas de contaminación específicas de la planta, que permitieron mejorar las estrategias de control de la contaminación...
Resumo:
En la actualidad, muchos gobiernos están publicando (o tienen la intención de publicar en breve) miles de conjuntos de datos para que personas y organizaciones los puedan utilizar. Como consecuencia, la cantidad de aplicaciones basadas en Open Data está incrementándose. Sin embargo cada gobierno tiene sus propios procedimientos para publicar sus datos, y esto causa una variedad de formatos dado que no existe un estándar internacional para especificar los formatos de estos datos. El objetivo principal de este trabajo es un análisis comparativo de datos ambientales en bases de datos abiertas (Open Data) pertenecientes a distintos gobiernos. Debido a esta variedad de formatos, debemos construir un proceso de integración de datos que sea capaz de unir todos los tipos de formatos. El trabajo implica un pre-procesado, limpieza e integración de las diferentes fuentes de datos. Existen muchas aplicaciones desarrolladas para dar soporte en el proceso de integración por ejemplo Data Tamer, Data Wrangler como se explica en este documento. El problema con estas aplicaciones es que necesitan la interacción del usuario como parte fundamental del proceso de integración. En este trabajo tratamos de evitar la supervisión humana aprovechando las similitudes de los datasets procedentes de igual área que en nuestro caso se aplica al área de medioambiente. De esta forma los procesos pueden ser automatizados con una programación adecuada. Para conseguirlo, la idea principal de este trabajo es construir procesos ad hoc adaptados a las fuentes de cada gobierno para conseguir una integración automática. Concretamente este trabajo se enfoca en datos ambientales como lo son la temperatura, consumo de energía, calidad de aire, radiación solar, velocidad del viento, etc. Desde hace dos años el gobierno de Madrid está publicando sus datos relativos a indicadores ambientales en tiempo real. Del mismo modo, otros gobiernos han publicado conjuntos de datos Open Data relativos al medio ambiente (como Andalucía o Bilbao), pero todos estos datos tienen diferentes formatos. En este trabajo se presenta una solución capaz de integrar todas ellos que además permite al usuario visualizar y hacer análisis sobre los datos en tiempo real. Una vez que el proceso de integración está realizado, todos los datos de cada gobierno poseen el mismo formato y se pueden lanzar procesos de análisis de una manera más computacional. Este trabajo tiene tres partes fundamentales: 1. Estudio de los entornos Open Data y la literatura al respecto; 2. Desarrollo de un proceso de integración y 3. Desarrollo de una Interface Gráfica y Analítica. Aunque en una primera fase se implementaron los procesos de integración mediante Java y Oracle y la Interface Gráfica con Java (jsp), en una fase posterior se realizó toda la implementación con lenguaje R y la interface gráfica mediante sus librerías, principalmente con Shiny. El resultado es una aplicación que provee de un conjunto de Datos Ambientales Integrados en Tiempo Real respecto a dos gobiernos muy diferentes en España, disponible para cualquier desarrollador que desee construir sus propias aplicaciones.
Resumo:
1 OBJETIVOS Evaluar el impacto de las bajas temperaturas, la interacción entre P. fluorescens (Pf) y L. monocytogenes (Lm) en biofilms (BF) mixtos y la capacidad para persistir de Lm sobre (i) la capacidad de Lm para desarrollar BF; (ii) los parámetros estructurales de los BF formados; (iii) la respuesta de las células adheridas de Lm frente al tratamiento con quitosano; (iiii) y su capacidad para recuperarse tras el tratamiento, tanto a nivel de densidad celular como estructural. Además, se pretendió valorar el quitosano como agente de limpieza y desinfección de los BF en la industria alimentaria, profundizando en su impacto sobre la estructura. 2 METODOLOGÍA Para llevar a cabo estos objetivos se seleccionaron un total de 10 cepas de Lm (6 persistentes y 3 esporádicas aisladas por Ortiz y col. (2010) de una industria cárnica y la cepa Lm Scott A como referencia) y la cepa Pf ATCC 948TM para formar BF puros, de cada especie, y mixtos, de Pf y cada una de las cepas de Lm, iniciando los cultivos a un nivel de cada una de las bacterias de 104 UFC·ml-1. Para la formación de BF se empleó un sistema en batch, en el que cupones de vidrio desechables (22x22 mm) semisumergidos actuaron como soporte para la adhesión. Los BF se desarrollaron a 20°C (BF “templados”) y 4°C (BF “fríos”). Los tratamientos con quitosano al 1% (w/v) consistieron en la inmersión durante 1h. Para la recuperación, los cupones tratados se revitalizaron en medio fresco (Trytone Soya Broth, TSB) a 20°C/48h. La densidad celular adherida antes, después y durante la revitalización se determinó mediante siembra del BF residual recogido del cupón en medios generales, o selectivos en el caso de los BF mixtos. Para la determinación de la biomasa adherida mediante densitometría (λ=520-570 nm), los BF fueron teñidos con una solución al 1‰ de azul de coomassie. Para las observaciones de la estructura mediante microscopía confocal láser de barrido (CLSM) las muestras se tiñeron con diferentes fluorocromos, procesándose las imágenes obtenidas mediante el software Imaris 8.2. El tratamiento estadístico de los datos se hizo con el software Statgraphics Centurion...
Resumo:
El deseo de lograr la victoria con el menor esfuerzo o la garantía de la derrota segura del rival, es un sentimiento tan antiguo como la historia del deporte, para conseguirlo a lo largo del tiempo los métodos, las formas, las sustancias para alterar el rendimiento físico han evolucionado, aunque la intención se mantiene de forma invariable. En nuestros días el doping está presente en la mayoría de los deportes y las carreras de caballos no son una excepción. Por esta razón con el fin de salvaguardar el bienestar animal, la limpieza del deporte y la protección del juego en los hipódromos españoles se realiza “el control del doping”, se practica a los caballos PSI de carreras, hasta ahora, siguiendo las directrices del “Código de la Sociedad Fomento de la Cría Caballar en España” (SFCCE), de esta forma tratamos de impedir el uso fraudulento de sustancias dopantes o el abuso de las sustancias medicamentosas. El control del doping en los hipódromos españoles empezó en 1960, gracias a un acuerdo entre la SFCCE y la Cátedra de Farmacología y Toxicología de la Facultad de Veterinaria de la Universidad Complutense, de lo sucedido en estos primeros años incluimos en nuestro trabajo un estudio crítico. En 1983 la SFCCE se modernizó y delegó la responsabilidad de los análisis de orina y sangre a un laboratorio homologado por la International Federation of Horseracing Authorities (IFHA). Por esta razón, en nuestro trabajo aportamos los datos correspondientes al control del doping de los caballos de carreras en España desde 1983 y hasta diciembre de 2014...
Resumo:
El análisis de datos actual se enfrenta a problemas derivados de la combinación de datos procedentes de diversas fuentes de información. El valor de la información puede enriquecerse enormemente facilitando la integración de nuevas fuentes de datos y la industria es muy consciente de ello en la actualidad. Sin embargo, no solo el volumen sino también la gran diversidad de los datos constituye un problema previo al análisis. Una buena integración de los datos garantiza unos resultados fiables y por ello merece la pena detenerse en la mejora de procesos de especificación, recolección, limpieza e integración de los datos. Este trabajo está dedicado a la fase de limpieza e integración de datos analizando los procedimientos existentes y proponiendo una solución que se aplica a datos médicos, centrándose así en los proyectos de predicción (con finalidad de prevención) en ciencias de la salud. Además de la implementación de los procesos de limpieza, se desarrollan algoritmos de detección de outliers que permiten mejorar la calidad del conjunto de datos tras su eliminación. El trabajo también incluye la implementación de un proceso de predicción que sirva de ayuda a la toma de decisiones. Concretamente este trabajo realiza un análisis predictivo de los datos de pacientes drogodependientes de la Clínica Nuestra Señora de la Paz, con la finalidad de poder brindar un apoyo en la toma de decisiones del médico a cargo de admitir el internamiento de pacientes en dicha clínica. En la mayoría de los casos el estudio de los datos facilitados requiere un pre-procesado adecuado para que los resultados de los análisis estadísticos tradicionales sean fiables. En tal sentido en este trabajo se implementan varias formas de detectar los outliers: un algoritmo propio (Detección de Outliers con Cadenas No Monótonas), que utiliza las ventajas del algoritmo Knuth-Morris-Pratt para reconocimiento de patrones, y las librerías outliers y Rcmdr de R. La aplicación de procedimientos de cleaning e integración de datos, así como de eliminación de datos atípicos proporciona una base de datos limpia y fiable sobre la que se implementarán procedimientos de predicción de los datos con el algoritmo de clasificación Naive Bayes en R.
Resumo:
El desarrollo biotecnológico en el siglo XX, y la progresión mantenida en el siglo XXI, generan un gran cambio en los cuidados a los pacientes. Como disciplina y profesión sanitaria la Enfermería debe ser capaz de adaptarse a los cambios y a las necesidades de los usuarios, con el fin de garantizar y procurar la excelencia del cuidado. La Ventilación Mecánica No Invasiva (VMNI) es un soporte ventilatorio que, sin invadir la vía aérea, logra mantener presiones positivas. Sus beneficios y utilidades son diversos según sus modos –BiPAP, CPAP-. El hecho de no ser invasiva conlleva que el paciente debe estar consciente y colaborar con la técnica ventilatoria, evitando de este modo la sedación y el riesgo de infección relacionado con los dispositivos supra e infra glóticos. Sin duda, como toda intervención también están descritas sus contraindicaciones y, el abordaje de cuidados por parte de enfermería debe ser constante, con el fin de garantizar la calidad de dicho procedimiento. La VMNI a través de un flujo generado por una turbina / respirador, logra la presión positiva en el paciente al ceñir una interfaz a la superficie facial. Existen múltiples interfaces en función del tamaño del usuario, de la vía aérea a ventilar –boca, nariz y boca-nariz- y de los puntos de apoyo donde se realiza la presión con el fin de ceñir la máscara y evitar fugas. Al generar presión a NIMVel tisular, existe un alto riesgo per se. Enfermería debe de valorar, diagnosticar y planificar los objetivos e intervenciones con el fin de preservar la dermis y la epidermis de lesiones; evaluando de manera periódica los resultados obtenidos y adaptando sus cuidados a las nuevas necesidades del paciente. A la intervención propiamente de la VMNI le acompañan otros procedimientos habitualmente, como son la monitorización gasométrica del paciente, la aerosolterapia y todas aquellas actividades que el profesional de Enfermería realiza para evitar las infecciones. Además, durante la evaluación continua de todo el proceso, la agudización de la situación del paciente puede conllevar la necesidad de permeabilizar la vía aérea, por lo que hay que conocer la Secuencia Rápida de Inducción e Intubación. La presente Tesis da respuesta a cómo se deben realizar los cuidados que Enfermería durante el complejo manejo del paciente crítico que precisa Ventilación Mecánica No Invasiva. Con el fin de mejorar el confort de los usuarios y favorecer la limpieza de la vía aérea, el intercambio gaseoso y mejorar el patrón respiratorio se han diseñado y ejecutado cinco estudios y dos proyectos de investigación, con el fin de generar nuevas y futuras líneas de investigación en las que ya se están trabajando. Las conclusiones alcanzas determinan la necesidad de cambio en las actividades en dos de las intervenciones descritas en la clasificación normalizada de Enfermería –NIC-: “Manejo de la Ventilación Mecánica: prevención de la Neumonía” y “Manejo de la Ventilación Mecánica: No Invasiva”. Además, de la necesidad de desarrollar e incluir a la NIC: “Administración de medicación: aerosolterapia durante la ventilación mecánica no invasiva: inhalatoria”.