920 resultados para Computer System Management
Resumo:
[ES] Este proyecto de fin de carrera aborda la actualización y refactorización de la aplicación Hecaton. Esta aplicación permite la monitorización y actuación en instalaciones industriales de manera remota a través de un interfaz web. Para ello hace uso de sensores y actuadores que, conectados a través de un equipo de adquisición de datos a un sistema informático servidor, permiten obtener, manipular y almacenar los datos y eventos recibidos. Hecaton ha sido desarrollado enteramente utilizando software libre. Además, el sistema permite ser personalizado, lo que posibilita su uso en todo tipo de escenarios, siendo el usuario quién define las reglas de funcionamiento. Este trabajo se trata del cuarto ciclo de desarrollo, pues la aplicación ha sido crea y ampliada en otros tres proyectos. En este último desarrollo se han actualizado las tecnologías y herramientas que forman parte de la aplicación. Se ha puesto especial énfasis en el rediseño de la interfaz web, adoptando el uso de las últimas tecnologías web que permiten un funcionamiento dinámico de la misma. Por otro lado se han corregido algunos errores de diseño e introducido el uso de nuevas herramientas para la gestión del proyecto software. Se trata por lo tanto de un ejercicio de refactorización software donde se ha puesto especial atención en conseguir un proyecto actualizado y que utilice metodologías de desarrollo actuales y que posibilite que sea actualizado en un futuro.
Resumo:
[ES] E-NATURAL es un portal web donde se localizan empresas del sector del turismo rural, en este portal se publicitan y venden sus productos y servicios. Cada empresa dispone de un espacio web único e individual para poder promocionarse en internet. Mediante un buscador, permite a los usuarios acceder a los contenidos de cada empresa registrada en el sistema. Este buscador es abierto y cualquier usuario no registrado puede consultar la información acerca de productos y servicios ofertados, y disponer de toda la información relacionada con cada empresa. Las empresas registradas disponen de un sistema de información completo de fácil manejo e intuitivo que permite autogestionar todo el contenido de los productos y páginas web de cada empresa individualmente. También se incluye un sistema de gestión de contenidos que genera páginas web profesionales automáticamente, con posibilidad de edición de páginas. Por otra parte, los usuarios registrados podrán realizar: reservas de productos mediante un completo sistema de gestión de reservas, con especial atención al alojamiento, compras de productos mediante un completo sistema de compras, adaptado a la plataforma Paypal, clasificaciones de productos y páginas web del sistema, utilizando votaciones mediante rankings. La plataforma contiene un sistema de gestión de comentarios sobre productos y páginas web de empresas que permite seleccionar la visualización y la no visualización del contenido. Por último, los usuarios podrán compartir información sobre contenidos publicados en las páginas, mediante el uso de redes sociales como Twitter, Google+ y Facebook.
Resumo:
The quest for universal memory is driving the rapid development of memories with superior all-round capabilities in non-volatility, high speed, high endurance and low power. The memory subsystem accounts for a significant cost and power budget of a computer system. Current DRAM-based main memory systems are starting to hit the power and cost limit. To resolve this issue the industry is improving existing technologies such as Flash and exploring new ones. Among those new technologies is the Phase Change Memory (PCM), which overcomes some of the shortcomings of the Flash such as durability and scalability. This alternative non-volatile memory technology, which uses resistance contrast in phase-change materials, offers more density relative to DRAM, and can help to increase main memory capacity of future systems while remaining within the cost and power constraints. Chalcogenide materials can suitably be exploited for manufacturing phase-change memory devices. Charge transport in amorphous chalcogenide-GST used for memory devices is modeled using two contributions: hopping of trapped electrons and motion of band electrons in extended states. Crystalline GST exhibits an almost Ohmic I(V) curve. In contrast amorphous GST shows a high resistance at low biases while, above a threshold voltage, a transition takes place from a highly resistive to a conductive state, characterized by a negative differential-resistance behavior. A clear and complete understanding of the threshold behavior of the amorphous phase is fundamental for exploiting such materials in the fabrication of innovative nonvolatile memories. The type of feedback that produces the snapback phenomenon is described as a filamentation in energy that is controlled by electron–electron interactions between trapped electrons and band electrons. The model thus derived is implemented within a state-of-the-art simulator. An analytical version of the model is also derived and is useful for discussing the snapback behavior and the scaling properties of the device.
Resumo:
Einleitung und Literaturdiskussion: Gentamicin ist ein aus Bakterien gewonnenes Aminoglykosid-Antibiotikum, das seit vielen Jahren im klinischen Alltag zur Therapie von bakteriellen Infektionen und zur Behandlung des Morbus Ménière eingesetzt wird. Ein bedeutender, jedoch noch nicht vollständig verstandener, Pathomechanismus ist dabei die Entstehung von 4-HNE durch Lipid Peroxidation und die konsekutive Schädigung durch das gebildete Aldehyd. Ziel dieser Arbeit war es, die Beeinflussung der Expression von 4-HNE in sieben verschiedenen Regionen der Kochlea (SV, SL, CO, NF, LF, IDZ und SGZ) durch Gentamicin zu beschreiben und quantitativ zu ermitteln.rnMaterial und Methoden: Die Meerschweinchen wurden in vier Gruppen unterteilt: eine unbehandelte Kontrollgruppe und je eine Gruppe 1, 2 und 7 Tage nach Gentamicin-Applikation. Nach Ablauf der Inkubationszeit wurden die Kochleae den Tieren entnommen, das Gewebe fixiert, geschnitten und auf Objektträgern aufgebracht. Die Schnitte wurden mit 4-HNE-Antikörpern behandelt und die Immunreaktion mikroskopisch lokalisiert und zelluläre quantitative Unterschiede am Computer berechnet.rnErgebnisse: Die Auswertung der Daten ergab signifikante Anstiege der Immunreaktion auf 4-HNE von der Kontrollgruppe zu allen drei Behandlungsgruppen in vier der sieben untersuchten Regionen (Stria vascularis, Spirales Ligament, Cortisches Organ und Nervenfasern). In zwei Bereichen (Fibrozyten im Limbus und Interdentalzellen) kam es zwischen Kontrollgruppe und nur einer Behandlungsgruppe D (7d) zu einer signifikanten Erhöhung. Lediglich die Spiralganglionzellen erbrachten keine signifikanten Differenzen. Der Vergleich der Einzelwindungen erbrachte für die Stria vascularis, das Spirale Ligament, das Cortische Organ und die Nervenfasern signifikante Anstiege innerhalb der drei Windungen von der Kontrollgruppe zu den drei Behandlungsgruppen. Bei der Stria vascularis zeigte sich als einzige Region eine signifikant erhöhte Immunfärbung in allen drei Einzelwindungen von der Kontrollgruppe zu allen Behandlungsgruppen. Beim Vergleich der Gesamtwindungen ließ sich ausschließlich für die Region der Stria vascularis von der ersten zur dritten Windung ein Anstieg der Braunfärbung feststellen. Zudem konnten Korrelationen der Färbeintensitäten einerseits zwischen den beiden Regionen der Lateralen Wand und andererseits zwischen zwei Zelltypen im Limbus aufgezeigt werden.rnDiskussion: Die durch Gentamicin-gesteigerte 4-HNE-Expression kann durch genomische und nicht-genomische Prozesse hervorgerufen werden.
Resumo:
The main objective of this paper is to discuss various aspects of implementing a specific intrusion-detection scheme on a micro-computer system using fixed-point arithmetic. The proposed scheme is suitable for detecting intruder stimuli which are in the form of transient signals. It consists of two stages: an adaptive digital predictor and an adaptive threshold detection algorithm. Experimental results involving data acquired via field experiments are also included.
Resumo:
Keyboards, mice, and touch screens are a potential source of infection or contamination in operating rooms, intensive care units, and autopsy suites. The authors present a low-cost prototype of a system, which allows for touch-free control of a medical image viewer. This touch-free navigation system consists of a computer system (IMac, OS X 10.6 Apple, USA) with a medical image viewer (OsiriX, OsiriX foundation, Switzerland) and a depth camera (Kinect, Microsoft, USA). They implemented software that translates the data delivered by the camera and a voice recognition software into keyboard and mouse commands, which are then passed to OsiriX. In this feasibility study, the authors introduced 10 medical professionals to the system and asked them to re-create 12 images from a CT data set. They evaluated response times and usability of the system compared with standard mouse/keyboard control. Users felt comfortable with the system after approximately 10 minutes. Response time was 120 ms. Users required 1.4 times more time to re-create an image with gesture control. Users with OsiriX experience were significantly faster using the mouse/keyboard and faster than users without prior experience. They rated the system 3.4 out of 5 for ease of use in comparison to the mouse/keyboard. The touch-free, gesture-controlled system performs favorably and removes a potential vector for infection, protecting both patients and staff. Because the camera can be quickly and easily integrated into existing systems, requires no calibration, and is low cost, the barriers to using this technology are low.
Resumo:
A process evaluation of the Houston Childhood Lead Poisoning Prevention Program, 1992-1995, was conducted. The Program's goal is to reduce lead poisoning prevalence. The study proposed to determine to what extent the Program was implemented as planned by measuring how well Program services were actually: (1) received by the intended target population; (2) delivered to children with elevated blood lead levels; (3) delivered in compliance with the Centers for Disease Control and Prevention and Program guidelines and timetables; and (4) able to reduce lead poisoning prevalence among those rescreened. Utilizing a program monitoring design, the Program's pre-collected computer records were reviewed. The study sample consisted of 820 children whose blood lead levels were above 15 micrograms per deciLiter, representing approximately 2.9% of the 28,406 screened over this period. Three blood lead levels from each participant were examined: the initial elevated result; the confirmatory result; and the next rescreen result, after the elevated confirmatory level. Results showed that the Program screened approximately 18% (28,406 of 161,569) of Houston's children under age 6 years for lead poisoning. Based on Chi-square tests of significance, results also showed that lead-poisoned participants were more likely to be younger than 3 years, male and Hispanic, compared to those not lead poisoned. The age, gender and ethnic differences observed were statistically significant (p =.01, p =.00, p =.00). Four of the six Program services: medical evaluations, rescreening, environmental inspections and confirmation, had satisfactory delivery completion rates of 71%-98%. Delivery timetable compliance rates for three of the six services examined: outreach contacts, home visits and environmental inspections were below 32%. However, dangerously elevated blood lead levels fell and lead poisoning prevalence dropped from 3.3% at initial screening to 1.2% among those rescreened, after intervention. From a public health perspective, reductions in lead poisoning prevalence are very meaningful. Based on these findings, the following are recommendations for future research: (1) integrate Program database files by utilizing a computer database management program; (2) target services at Hispanic male children under age 3 years living in the highest risk neighborhoods; (3) increase resources to: improve tracking and documentation of service delivery and provide more non-medical case management and environmental services; and (4) share the evaluation methodology/findings with the Centers for Disease Control and Prevention administrators; the implications may be relevant to other program managers conducting such assessments. ^
Resumo:
Esta Tesis realiza una contribución metodológica al estudio del impacto del cambio climático sobre los usos del agua, centrándose particularmente en la agricultura. Tomando en consideración su naturaleza distinta, la metodología aborda de forma integral los impactos sobre la agricultura de secano y la agricultura de regadío. Para ello incorpora diferentes modelos agrícolas y de agua que conjuntamente con las simulaciones de los escenarios climáticos permiten determinar indicadores de impacto basados en la productividad de los cultivos, para el caso de la agricultura de secano, e indicadores de impacto basados en la disponibilidad de agua para irrigación, para el caso de la agricultura de regadío. La metodología toma en consideración el efecto de la variabilidad climática en la agricultura, evaluando las necesidades de adaptación y gestión asociadas a los impactos medios y a la variabilidad en la productividad de los cultivos y el efecto de la variabilidad hidrológica en la disponibilidad de agua para regadío. Considerando la gran cantidad de información proporcionada por las salidas de las simulaciones de los escenarios climáticos y su complejidad para procesarla, se ha desarrollado una herramienta de cálculo automatizada que integra diferentes escenarios climáticos, métodos y modelos que permiten abordar el impacto del cambio climático sobre la agricultura, a escala de grandes extensiones. El procedimiento metodológico parte del análisis de los escenarios climáticos en situación actual (1961-1990) y futura (2071-2100) para determinar su fiabilidad y conocer qué dicen exactamente las proyecciones climáticas a cerca de los impactos esperados en las principales variables que intervienen en el ciclo hidrológico. El análisis hidrológico se desarrolla en los ámbitos territoriales de la planificación hidrológica en España, considerando la disponibilidad de información para validar los resultados en escenario de control. Se utilizan como datos observados las series de escorrentía en régimen natural estimadas el modelo hidrológico SIMPA que está calibrado en la totalidad del territorio español. Al trabajar a escala de grandes extensiones, la limitada disponibilidad de datos o la falta de modelos hidrológicos correctamente calibrados para obtener los valores de escorrentía, muchas veces dificulta el proceso de evaluación, por tanto, en este estudio se plantea una metodología que compara diferentes métodos de interpolación y alternativas para generar series anuales de escorrentía que minimicen el sesgo con respecto a los valores observados. Así, en base a la alternativa que genera los mejores resultados, se obtienen series mensuales corregidas a partir de las simulaciones de los modelos climáticos regionales (MCR). Se comparan cuatro métodos de interpolación para obtener los valores de las variables a escala de cuenca hidrográfica, haciendo énfasis en la capacidad de cada método para reproducir los valores observados. Las alternativas utilizadas consideran la utilización de la escorrentía directa simulada por los MCR y la escorrentía media anual calculada utilizando cinco fórmulas climatológicas basadas en el índice de aridez. Los resultados se comparan además con la escorrentía global de referencia proporcionada por la UNH/GRDC que en la actualidad es el “mejor estimador” de la escorrentía actual a gran escala. El impacto del cambio climático en la agricultura de secano se evalúa considerando el efecto combinado de los riesgos asociados a las anomalías dadas por los cambios en la media y la variabilidad de la productividad de los cultivos en las regiones agroclimáticas de Europa. Este procedimiento facilita la determinación de las necesidades de adaptación y la identificación de los impactos regionales que deben ser abordados con mayor urgencia en función de los riesgos y oportunidades identificadas. Para ello se utilizan funciones regionales de productividad que han sido desarrolladas y calibradas en estudios previos en el ámbito europeo. Para el caso de la agricultura de regadío, se utiliza la disponibilidad de agua para irrigación como un indicador del impacto bajo escenarios de cambio climático. Considerando que la mayoría de estudios se han centrado en evaluar la disponibilidad de agua en régimen natural, en este trabajo se incorpora el efecto de las infraestructuras hidráulicas al momento de calcular el recurso disponible bajo escenarios de cambio climático Este análisis se desarrolla en el ámbito español considerando la disponibilidad de información, tanto de las aportaciones como de los modelos de explotación de los sistemas hidráulicos. Para ello se utiliza el modelo de gestión de recursos hídricos WAAPA (Water Availability and Adaptation Policy Assessment) que permite calcular la máxima demanda que puede atenderse bajo determinados criterios de garantía. Se utiliza las series mensuales de escorrentía observadas y las series mensuales de escorrentía corregidas por la metodología previamente planteada con el objeto de evaluar la disponibilidad de agua en escenario de control. Se construyen proyecciones climáticas utilizando los cambios en los valores medios y la variabilidad de las aportaciones simuladas por los MCR y también utilizando una fórmula climatológica basada en el índice de aridez. Se evalúan las necesidades de gestión en términos de la satisfacción de las demandas de agua para irrigación a través de la comparación entre la disponibilidad de agua en situación actual y la disponibilidad de agua bajo escenarios de cambio climático. Finalmente, mediante el desarrollo de una herramienta de cálculo que facilita el manejo y automatización de una gran cantidad de información compleja obtenida de las simulaciones de los MCR se obtiene un proceso metodológico que evalúa de forma integral el impacto del cambio climático sobre la agricultura a escala de grandes extensiones, y a la vez permite determinar las necesidades de adaptación y gestión en función de las prioridades identificadas. ABSTRACT This thesis presents a methodological contribution for studying the impact of climate change on water use, focusing particularly on agriculture. Taking into account the different nature of the agriculture, this methodology addresses the impacts on rainfed and irrigated agriculture, integrating agricultural and water planning models with climate change simulations scenarios in order to determine impact indicators based on crop productivity and water availability for irrigation, respectively. The methodology incorporates the effect of climate variability on agriculture, assessing adaptation and management needs associated with mean impacts, variability in crop productivity and the effect of hydrologic variability on water availability for irrigation. Considering the vast amount of information provided by the outputs of the regional climate model (RCM) simulations and also its complexity for processing it, a tool has been developed to integrate different climate scenarios, methods and models to address the impact of climate change on agriculture at large scale. Firstly, a hydrological analysis of the climate change scenarios is performed under current (1961-1990) and future (2071-2100) situation in order to know exactly what the models projections say about the expected impact on the main variables involved in the hydrological cycle. Due to the availability of information for validating the results in current situation, the hydrological analysis is developed in the territorial areas of water planning in Spain, where the values of naturalized runoff have been estimated by the hydrological model SIMPA, which are used as observed data. By working in large-scale studies, the limited availability of data or lack of properly calibrated hydrological model makes difficult to obtain runoff time series. So as, a methodology is proposed to compare different interpolation methods and alternatives to generate annual times series that minimize the bias with respect to observed values. Thus, the best alternative is selected in order to obtain bias-corrected monthly time series from the RCM simulations. Four interpolation methods for downscaling runoff to the basin scale from different RCM are compared with emphasis on the ability of each method to reproduce the observed behavior of this variable. The alternatives consider the use of the direct runoff of the RCMs and the mean annual runoff calculated using five functional forms of the aridity index. The results are also compared with the global runoff reference provided by the UNH/GRDC dataset, as a contrast of the “best estimator” of current runoff on a large scale. Secondly, the impact of climate change on rainfed agriculture is assessed considering the combined effect of the risks associated with anomalies given by changes in the mean and variability of crop productivity in the agro-climatic regions of Europe. This procedure allows determining adaptation needs based on the regional impacts that must be addressed with greater urgency in light of the risks and opportunities identified. Statistical models of productivity response are used for this purpose which have been developed and calibrated in previous European study. Thirdly, the impact of climate change on irrigated agriculture is evaluated considering the water availability for irrigation as an indicator of the impact. Given that most studies have focused on assessing water availability in natural regime, the effect of regulation is incorporated in this approach. The analysis is developed in the Spanish territory considering the available information of the observed stream flows and the regulation system. The Water Availability and Adaptation Policy Assessment (WAAPA) model is used in this study, which allows obtaining the maximum demand that could be supplied under certain conditions (demand seasonal distribution, water supply system management, and reliability criteria) for different policy alternatives. The monthly bias corrected time series obtained by previous methodology are used in order to assess water availability in current situation. Climate change projections are constructed taking into account the variation in mean and coefficient of variation simulated by the RCM. The management needs are determined by the agricultural demands satisfaction through the comparison between water availability under current conditions and under climate change projections. Therefore, the methodology allows evaluating the impact of climate change on agriculture to large scale, using a tool that facilitates the process of a large amount of complex information provided by the RCM simulations, in order to determine the adaptation and management needs in accordance with the priorities of the indentified impacts.
Resumo:
In the presence of a river flood, operators in charge of control must take decisions based on imperfect and incomplete sources of information (e.g., data provided by a limited number sensors) and partial knowledge about the structure and behavior of the river basin. This is a case of reasoning about a complex dynamic system with uncertainty and real-time constraints where bayesian networks can be used to provide an effective support. In this paper we describe a solution with spatio-temporal bayesian networks to be used in a context of emergencies produced by river floods. In the paper we describe first a set of types of causal relations for hydrologic processes with spatial and temporal references to represent the dynamics of the river basin. Then we describe how this was included in a computer system called SAIDA to provide assistance to operators in charge of control in a river basin. Finally the paper shows experimental results about the performance of the model.
Resumo:
AIMS: To investigate the effect of pelvic floor muscle training (PFMT) taught in a general exercise class during pregnancy on the prevention of urinary incontinence (UI) in nulliparous continent pregnant women. METHODS: This was a unicenter two armed randomized controlled trial. One hundred sixty-nine women were randomized by a central computer system to an exercise group (EG) (exercise class including PFMT) (n = 73) or a control group (CG) (n = 96). 10.1% loss to follow-up: 10 from EG and 7 from CG. The intervention consisted of 70-75 sessions (22 weeks, three times per week, 55-60 min/session including 10 min of PFMT). The CG received usual care (which included follow up by midwifes including information about PFMT). Questions on prevalence and degree of UI were posed before (week 10-14) and after intervention (week 36-39) using the International Consultation on Incontinence Questionnaire-Urinary Incontinence Short Form (ICIQ-UI SF). RESULTS: At the end of the intervention, there was a statistically significant difference in favor of the EG. Reported frequency of UI [Never: CG: 54/60.7%, EG: 60/95.2% (P < 0.001)]. Amount of leakage [None: CG: 45/60.7%, EG: 60/95.2% (P < 0.001)]. There was also a statistically significant difference in ICIQ-UI SF Score between groups after the intervention period [CG: 2.7 (SD 4.1), EG: 0.2 (SD 1.2) (P < 0.001)]. The estimated effect size was 0.8. CONCLUSION: PFMT taught in a general exercise class three times per week for at least 22 weeks, without former assessment of ability to perform a correct contraction was effective in primary prevention of UI in primiparous pregnant women.
Resumo:
Los sistemas microinformáticos se componen principalmente de hardware y software, con el paso del tiempo el hardware se degrada, se deteriora y en ocasiones se avería. El software evoluciona, requiere un mantenimiento, de actualización y en ocasiones falla teniendo que ser reparado o reinstalado. A nivel hardware se analizan los principales componentes que integran y que son comunes en gran parte estos sistemas, tanto en equipos de sobre mesa como portátiles, independientes del sistema operativo, además de los principales periféricos, también se analizan y recomiendan algunas herramientas necesarias para realizar el montaje, mantenimiento y reparación de estos equipos. Los principales componentes hardware internos son la placa base, memoria RAM, procesador, disco duro, carcasa, fuente de alimentación y tarjeta gráfica. Los periféricos más destacados son el monitor, teclado, ratón, impresora y escáner. Se ha incluido un apartado donde se detallan los distintos tipos de BIOS y los principales parámetros de configuración. Para todos estos componentes, tanto internos como periféricos, se ha realizado un análisis de las características que ofrecen y los detalles en los que se debe prestar especial atención en el momento de seleccionar uno frente a otro. En los casos que existen diferentes tecnologías se ha hecho una comparativa entre ambas, destacando las ventajas y los inconvenientes de unas frente a otras para que sea el usuario final quien decida cual se ajusta mejor a sus necesidades en función de las prestaciones y el coste. Un ejemplo son las impresoras de inyección de tinta frente a las laser o los discos duros mecánicos en comparación con y los discos de estado sólido (SSD). Todos estos componentes están relacionados, interconectados y dependen unos de otros, se ha dedicado un capítulo exclusivamente para estudiar cómo se ensamblan estos componentes, resaltando los principales fallos que se suelen cometer o producir y se han indicado unas serie tareas de mantenimiento preventivo que se pueden realizar para prolongar la vida útil del equipo y evitar averías por mal uso. Los mantenimientos se pueden clasificar como predictivo, perfectivo, adaptativo, preventivo y correctivo. Se ha puesto el foco principalmente en dos tipos de mantenimiento, el preventivo descrito anteriormente y en el correctivo, tanto software como hardware. El mantenimiento correctivo está enfocado al análisis, localización, diagnóstico y reparación de fallos y averías hardware y software. Se describen los principales fallos que se producen en cada componente, cómo se manifiestan o qué síntomas presentan para poder realizar pruebas específicas que diagnostiquen y acoten el fallo. En los casos que es posible la reparación se detallan las instrucciones a seguir, en otro caso se recomienda la sustitución de la pieza o componente. Se ha incluido un apartado dedicado a la virtualización, una tecnología en auge que resulta muy útil para realizar pruebas de software, reduciendo tiempos y costes en las pruebas. Otro aspecto interesante de la virtualización es que se utiliza para montar diferentes servidores virtuales sobre un único servidor físico, lo cual representa un importante ahorro en hardware y costes de mantenimiento, como por ejemplo el consumo eléctrico. A nivel software se realiza un estudio detallado de los principales problemas de seguridad y vulnerabilidades a los que está expuesto un sistema microinformático enumerando y describiendo el comportamiento de los distintos tipos de elementos maliciosos que pueden infectar un equipo, las precauciones que se deben tomar para minimizar los riesgos y las utilidades que se pueden ejecutar para prevenir o limpiar un equipo en caso de infección. Los mantenimientos y asistencias técnicas, en especial las de tipo software, no siempre precisan de la atención presencial de un técnico cualificado, por ello se ha dedicado un capítulo a las herramientas de asistencia remota que se pueden utilizar en este ámbito. Se describen algunas de las más populares y utilizadas en el mercado, su funcionamiento, características y requerimientos. De esta forma el usuario puede ser atendido de una forma rápida, minimizando los tiempos de respuesta y reduciendo los costes. ABSTRACT Microcomputer systems are basically made up of pieces of hardware and software, as time pass, there’s a degradation of the hardware pieces and sometimes failures of them. The software evolves, new versions appears and requires maintenance, upgrades and sometimes also fails having to be repaired or reinstalled. The most important hardware components in a microcomputer system are analyzed in this document for a laptop or a desktop, with independency of the operating system they run. In addition to this, the main peripherals and devices are also analyzed and a recommendation about the most proper tools necessary for maintenance and repair this kind of equipment is given as well. The main internal hardware components are: motherboard, RAM memory, microprocessor, hard drive, housing box, power supply and graphics card. The most important peripherals are: monitor, keyboard, mouse, printer and scanner. A section has been also included where different types of BIOS and main settings are listed with the basic setup parameters in each case. For all these internal components and peripherals, an analysis of their features has been done. Also an indication of the details in which special attention must be payed when choosing more than one at the same time is given. In those cases where different technologies are available, a comparison among them has been done, highlighting the advantages and disadvantages of selecting one or another to guide the end user to decide which one best fits his needs in terms of performance and costs. As an example, the inkjet vs the laser printers technologies has been faced, or also the mechanical hard disks vs the new solid state drives (SSD). All these components are interconnected and are dependent one to each other, a special chapter has been included in order to study how they must be assembled, emphasizing the most often mistakes and faults that can appear during that process, indicating different tasks that can be done as preventive maintenance to enlarge the life of the equipment and to prevent damage because of a wrong use. The different maintenances can be classified as: predictive, perfective, adaptive, preventive and corrective. The main focus is on the preventive maintains, described above, and in the corrective one, in software and hardware. Corrective maintenance is focused on the analysis, localization, diagnosis and repair of hardware and software failures and breakdowns. The most typical failures that can occur are described, also how they can be detected or the specific symptoms of each one in order to apply different technics or specific tests to diagnose and delimit the failure. In those cases where the reparation is possible, instructions to do so are given, otherwise, the replacement of the component is recommended. A complete section about virtualization has also been included. Virtualization is a state of the art technology that is very useful especially for testing software purposes, reducing time and costs during the tests. Another interesting aspect of virtualization is the possibility to have different virtual servers on a single physical server, which represents a significant savings in hardware inversion and maintenance costs, such as electricity consumption. In the software area, a detailed study has been done about security problems and vulnerabilities a microcomputer system is exposed, listing and describing the behavior of different types of malicious elements that can infect a computer, the precautions to be taken to minimize the risks and the tools that can be used to prevent or clean a computer system in case of infection. The software maintenance and technical assistance not always requires the physical presence of a qualified technician to solve the possible problems, that’s why a complete chapter about the remote support tools that can be used to do so has been also included. Some of the most popular ones used in the market are described with their characteristics and requirements. Using this kind of technology, final users can be served quickly, minimizing response times and reducing costs.
Resumo:
La computación ubicua está extendiendo su aplicación desde entornos específicos hacia el uso cotidiano; el Internet de las cosas (IoT, en inglés) es el ejemplo más brillante de su aplicación y de la complejidad intrínseca que tiene, en comparación con el clásico desarrollo de aplicaciones. La principal característica que diferencia la computación ubicua de los otros tipos está en como se emplea la información de contexto. Las aplicaciones clásicas no usan en absoluto la información de contexto o usan sólo una pequeña parte de ella, integrándola de una forma ad hoc con una implementación específica para la aplicación. La motivación de este tratamiento particular se tiene que buscar en la dificultad de compartir el contexto con otras aplicaciones. En realidad lo que es información de contexto depende del tipo de aplicación: por poner un ejemplo, para un editor de imágenes, la imagen es la información y sus metadatos, tales como la hora de grabación o los ajustes de la cámara, son el contexto, mientras que para el sistema de ficheros la imagen junto con los ajustes de cámara son la información, y el contexto es representado por los metadatos externos al fichero como la fecha de modificación o la de último acceso. Esto significa que es difícil compartir la información de contexto, y la presencia de un middleware de comunicación que soporte el contexto de forma explícita simplifica el desarrollo de aplicaciones para computación ubicua. Al mismo tiempo el uso del contexto no tiene que ser obligatorio, porque si no se perdería la compatibilidad con las aplicaciones que no lo usan, convirtiendo así dicho middleware en un middleware de contexto. SilboPS, que es nuestra implementación de un sistema publicador/subscriptor basado en contenido e inspirado en SIENA [11, 9], resuelve dicho problema extendiendo el paradigma con dos elementos: el Contexto y la Función de Contexto. El contexto representa la información contextual propiamente dicha del mensaje por enviar o aquella requerida por el subscriptor para recibir notificaciones, mientras la función de contexto se evalúa usando el contexto del publicador y del subscriptor. Esto permite desacoplar la lógica de gestión del contexto de aquella de la función de contexto, incrementando de esta forma la flexibilidad de la comunicación entre varias aplicaciones. De hecho, al utilizar por defecto un contexto vacío, las aplicaciones clásicas y las que manejan el contexto pueden usar el mismo SilboPS, resolviendo de esta forma la incompatibilidad entre las dos categorías. En cualquier caso la posible incompatibilidad semántica sigue existiendo ya que depende de la interpretación que cada aplicación hace de los datos y no puede ser solucionada por una tercera parte agnóstica. El entorno IoT conlleva retos no sólo de contexto, sino también de escalabilidad. La cantidad de sensores, el volumen de datos que producen y la cantidad de aplicaciones que podrían estar interesadas en manipular esos datos está en continuo aumento. Hoy en día la respuesta a esa necesidad es la computación en la nube, pero requiere que las aplicaciones sean no sólo capaces de escalar, sino de hacerlo de forma elástica [22]. Desgraciadamente no hay ninguna primitiva de sistema distribuido de slicing que soporte un particionamiento del estado interno [33] junto con un cambio en caliente, además de que los sistemas cloud actuales como OpenStack u OpenNebula no ofrecen directamente una monitorización elástica. Esto implica que hay un problema bilateral: cómo puede una aplicación escalar de forma elástica y cómo monitorizar esa aplicación para saber cuándo escalarla horizontalmente. E-SilboPS es la versión elástica de SilboPS y se adapta perfectamente como solución para el problema de monitorización, gracias al paradigma publicador/subscriptor basado en contenido y, a diferencia de otras soluciones [5], permite escalar eficientemente, para cumplir con la carga de trabajo sin sobre-provisionar o sub-provisionar recursos. Además está basado en un algoritmo recientemente diseñado que muestra como añadir elasticidad a una aplicación con distintas restricciones sobre el estado: sin estado, estado aislado con coordinación externa y estado compartido con coordinación general. Su evaluación enseña como se pueden conseguir notables speedups, siendo el nivel de red el principal factor limitante: de hecho la eficiencia calculada (ver Figura 5.8) demuestra cómo se comporta cada configuración en comparación con las adyacentes. Esto permite conocer la tendencia actual de todo el sistema, para saber si la siguiente configuración compensará el coste que tiene con la ganancia que lleva en el throughput de notificaciones. Se tiene que prestar especial atención en la evaluación de los despliegues con igual coste, para ver cuál es la mejor solución en relación a una carga de trabajo dada. Como último análisis se ha estimado el overhead introducido por las distintas configuraciones a fin de identificar el principal factor limitante del throughput. Esto ayuda a determinar la parte secuencial y el overhead de base [26] en un despliegue óptimo en comparación con uno subóptimo. Efectivamente, según el tipo de carga de trabajo, la estimación puede ser tan baja como el 10 % para un óptimo local o tan alta como el 60 %: esto ocurre cuando se despliega una configuración sobredimensionada para la carga de trabajo. Esta estimación de la métrica de Karp-Flatt es importante para el sistema de gestión porque le permite conocer en que dirección (ampliar o reducir) es necesario cambiar el despliegue para mejorar sus prestaciones, en lugar que usar simplemente una política de ampliación. ABSTRACT The application of pervasive computing is extending from field-specific to everyday use. The Internet of Things (IoT) is the shiniest example of its application and of its intrinsic complexity compared with classical application development. The main characteristic that differentiates pervasive from other forms of computing lies in the use of contextual information. Some classical applications do not use any contextual information whatsoever. Others, on the other hand, use only part of the contextual information, which is integrated in an ad hoc fashion using an application-specific implementation. This information is handled in a one-off manner because of the difficulty of sharing context across applications. As a matter of fact, the application type determines what the contextual information is. For instance, for an imaging editor, the image is the information and its meta-data, like the time of the shot or camera settings, are the context, whereas, for a file-system application, the image, including its camera settings, is the information and the meta-data external to the file, like the modification date or the last accessed timestamps, constitute the context. This means that contextual information is hard to share. A communication middleware that supports context decidedly eases application development in pervasive computing. However, the use of context should not be mandatory; otherwise, the communication middleware would be reduced to a context middleware and no longer be compatible with non-context-aware applications. SilboPS, our implementation of content-based publish/subscribe inspired by SIENA [11, 9], solves this problem by adding two new elements to the paradigm: the context and the context function. Context represents the actual contextual information specific to the message to be sent or that needs to be notified to the subscriber, whereas the context function is evaluated using the publisher’s context and the subscriber’s context to decide whether the current message and context are useful for the subscriber. In this manner, context logic management is decoupled from context management, increasing the flexibility of communication and usage across different applications. Since the default context is empty, context-aware and classical applications can use the same SilboPS, resolving the syntactic mismatch that there is between the two categories. In any case, the possible semantic mismatch is still present because it depends on how each application interprets the data, and it cannot be resolved by an agnostic third party. The IoT environment introduces not only context but scaling challenges too. The number of sensors, the volume of the data that they produce and the number of applications that could be interested in harvesting such data are growing all the time. Today’s response to the above need is cloud computing. However, cloud computing applications need to be able to scale elastically [22]. Unfortunately there is no slicing, as distributed system primitives that support internal state partitioning [33] and hot swapping and current cloud systems like OpenStack or OpenNebula do not provide elastic monitoring out of the box. This means there is a two-sided problem: 1) how to scale an application elastically and 2) how to monitor the application and know when it should scale in or out. E-SilboPS is the elastic version of SilboPS. I t is the solution for the monitoring problem thanks to its content-based publish/subscribe nature and, unlike other solutions [5], it scales efficiently so as to meet workload demand without overprovisioning or underprovisioning. Additionally, it is based on a newly designed algorithm that shows how to add elasticity in an application with different state constraints: stateless, isolated stateful with external coordination and shared stateful with general coordination. Its evaluation shows that it is able to achieve remarkable speedups where the network layer is the main limiting factor: the calculated efficiency (see Figure 5.8) shows how each configuration performs with respect to adjacent configurations. This provides insight into the actual trending of the whole system in order to predict if the next configuration would offset its cost against the resulting gain in notification throughput. Particular attention has been paid to the evaluation of same-cost deployments in order to find out which one is the best for the given workload demand. Finally, the overhead introduced by the different configurations has been estimated to identify the primary limiting factor for throughput. This helps to determine the intrinsic sequential part and base overhead [26] of an optimal versus a suboptimal deployment. Depending on the type of workload, this can be as low as 10% in a local optimum or as high as 60% when an overprovisioned configuration is deployed for a given workload demand. This Karp-Flatt metric estimation is important for system management because it indicates the direction (scale in or out) in which the deployment has to be changed in order to improve its performance instead of simply using a scale-out policy.
Resumo:
BRUNELLI, Conceição Aparecida Garcia: Gênero, raça, discriminação: o tom da cor na direção da escola pública. Mestrado em Educação. Universidade Metodista de São Paulo, São Bernardo do Campo - SP. 1 v. 244 p. 2007. Esse trabalho teve por objetivo investigar a trajetória das mulheres negras diretoras de escola pública e o processo de construção de sua identidade social, cultural, de gênero e raça. De fato, as mulheres negras em questão constroem suas identidades nadando entre águas profundas e revoltas: a das relações de gênero e a das relações raciais. A pesquisa permitiu-nos desvendar o processo seletivo pelo qual passam essas mulheres que conseguiram romper o duplo bloqueio formado pelas relações de gênero e de raça e atingiram a posição profissional de diretoras de escola pública. A questão central que norteia essa pesquisa diz respeito à trajetória de vida da mulher negra que optou pela carreira do magistério, as intercorrências encontradas ao longo de sua trajetória pessoal, de formação acadêmica e profissional, suas experiências, frustrações, expectativas, preconceitos e discriminações sofridos na caminhada até chegar ao exercício de sua atividade pública, sua ascensão social, o ingresso na carreira pública e as relações de poder que perpassam as questões de gênero e raça. Aborda ainda como essas intercorrências incidem sobre o processo de construção da identidade dessas mulheres negras e de suas relações com seus colegas brancos, homens e mulheres. A coleta de dados empíricos foi realizada através da história oral representada pela memória dessas mulheres, baseada nos depoimentos escritos e em entrevistas semi-estruturadas. Os depoimentos colhidos permitiram reunir material que foram interpretados segundo as relações de poder elaboradas por Foucault e que nos possibilitam a compreensão e uma reflexão do processo de construção das identidades individual e coletiva.
Resumo:
BRUNELLI, Conceição Aparecida Garcia: Gênero, raça, discriminação: o tom da cor na direção da escola pública. Mestrado em Educação. Universidade Metodista de São Paulo, São Bernardo do Campo - SP. 1 v. 244 p. 2007. Esse trabalho teve por objetivo investigar a trajetória das mulheres negras diretoras de escola pública e o processo de construção de sua identidade social, cultural, de gênero e raça. De fato, as mulheres negras em questão constroem suas identidades nadando entre águas profundas e revoltas: a das relações de gênero e a das relações raciais. A pesquisa permitiu-nos desvendar o processo seletivo pelo qual passam essas mulheres que conseguiram romper o duplo bloqueio formado pelas relações de gênero e de raça e atingiram a posição profissional de diretoras de escola pública. A questão central que norteia essa pesquisa diz respeito à trajetória de vida da mulher negra que optou pela carreira do magistério, as intercorrências encontradas ao longo de sua trajetória pessoal, de formação acadêmica e profissional, suas experiências, frustrações, expectativas, preconceitos e discriminações sofridos na caminhada até chegar ao exercício de sua atividade pública, sua ascensão social, o ingresso na carreira pública e as relações de poder que perpassam as questões de gênero e raça. Aborda ainda como essas intercorrências incidem sobre o processo de construção da identidade dessas mulheres negras e de suas relações com seus colegas brancos, homens e mulheres. A coleta de dados empíricos foi realizada através da história oral representada pela memória dessas mulheres, baseada nos depoimentos escritos e em entrevistas semi-estruturadas. Os depoimentos colhidos permitiram reunir material que foram interpretados segundo as relações de poder elaboradas por Foucault e que nos possibilitam a compreensão e uma reflexão do processo de construção das identidades individual e coletiva.