579 resultados para equipments
Resumo:
El mercado de los semiconductores está saturado de productos similares y de distribuidores con una propuesta de servicios similar. Los procesos de Co-Creación en los que el cliente colabora en la definición y desarrollo del producto y proporciona información sobre su utilidad, prestaciones y valor percibido, con el resultado de un producto que soluciona sus necesidades reales, se están convirtiendo en un paso adelante en la diferenciación y expansión de la cadena de valor. El proceso de diseño y fabricación de semiconductores es bastante complejo, requiere inversiones cada vez mayores y demanda soluciones completas. Se requiere un ecosistema que soporte el desarrollo de los equipos electrónicos basados en dichos semiconductores. La facilidad para el diálogo y compartir información que proporciona internet, las herramientas basadas en web 2.0 y los servicios y aplicaciones en la nube; favorecen la generación de ideas, el desarrollo y evaluación de productos y posibilita la interacción entre diversos co-creadores. Para iniciar un proceso de co-creación se requiere métodos y herramientas adecuados para interactuar con los participantes e intercambiar experiencias, procesos para integrar la co-creación dentro de la operativa de la empresa, y desarrollar una organización y cultura que soporten y fomenten dicho proceso. Entre los métodos más efectivos están la Netnografía que estudia las conversaciones de las comunidades en internet; colaboración con usuarios pioneros que van por delante del Mercado y esperan un gran beneficio de la satisfacción de sus necesidades o deseos; los estudios de innovación que permiten al usuario definir y a menudo crear su propia solución y la externalización a la multitud, que mediante una convocatoria abierta plantea a la comunidad retos a resolver a cambio de algún tipo de recompensa. La especialización de empresas subcontratistas en el desarrollo y fabricación de semiconductores; facilita la innovación abierta colaborando con diversas entidades en las diversas fases del desarrollo del semiconductor y su ecosistema. La co-creación se emplea actualmente en el sector de los semiconductores para detectar ideas de diseños y aplicaciones, a menudo mediante concursos de innovación. El servicio de soporte técnico y la evaluación de los semiconductores con frecuencia es fruto de la colaboración entre los miembros de la comunidad fomentada y soportada por los fabricantes del producto. Con el programa EBVchips se posibilita el acceso a empresas pequeñas y medianas a la co-creación de semiconductores con los fabricantes en un proceso coordinado y patrocinado por el distribuidor EBV. Los semiconductores configurables como las FPGAs constituyen otro ejemplo de co-creación mediante el cual el fabricante proporciona el circuito integrado y el entorno de desarrollo y los clientes crean el producto final definiendo sus características y funcionalidades. Este proceso se enriquece con bloques funcionales de diseño, IP-cores, que a menudo son creados por la comunidad de usuarios. ABSTRACT. The semiconductor market is saturated of similar products and distributors with a similar proposal for services. The processes of co-creation in which the customer collaborates in the definition and development of the product and provides information about its utility, performance and perceived value, resulting in a product that solves their real needs, are becoming a step forward in the differentiation and expansion of the value chain. The design and semiconductor manufacturing process is quite complex, requires increasingly higher investments and demands complete solutions. It requires an ecosystem that supports the development of electronic equipments based on such semiconductors. The ease of dialogue and sharing information that provides internet, web 2.0-based tools and services and applications in the cloud; favor the generation of ideas, the development and evaluation of products and allows the interaction between various co-creators. To start a process of co-creation adequate methods and tools are required to interact with the participants and exchange experiences, processes to integrate the co-creation within the operations of the company, and developing an organization and culture that support and promote such process. Among the most effective methods are the Netnography that studies the conversations of the communities on the internet; collaboration with Lead Users who are ahead of the market and expect a great benefit from the satisfaction of their needs or desires; Innovation studies that allow the user to define and often create their own solution and Crowdsourcing, an open call to the community to solve challenges in exchange for some kind of reward. The specialization of subcontractors in the development and manufacture of semiconductors; facilitates open innovation in the context of collaboration with different entities working in the different phases of the development of the semiconductor and its ecosystem. Co-creation is used currently in the semiconductor sector to detect ideas of designs and applications, often through innovation’s contests. Technical support and evaluation of semiconductors frequently is the result of collaboration between members of the community fostered and supported by the manufacturers of the product. The EBVchips program provides access to small and medium-sized companies to the co-creation of semiconductors with manufacturers in a process coordinated and sponsored by the Distributor EBV. Configurable semiconductors like FPGAs are another example of co-creation whereby the manufacturer provides the integrated circuit and the development environment and customers create the final product by defining their features and functionality. This process is enriched with IP-cores, designs blocks that are often created by the user community.
Resumo:
La calidad del hormigón prefabricado se determina mediante ensayos de rotura a compresión en probetas transcurridos los 28 días de curado, según establece la EHE-08. Sin embargo, en la plantas de prefabricados es necesario además saber cuándo el hormigón está listo para ser procesado (destensado, cortado, trasladado), por lo que es necesario hacer ensayos de resistencia a la compresión entre las 48 y 72 horas, este tiempo se determina a partir de la experiencia previa adquirida y depende de las condiciones de cada planta. Si las probetas no han alcanzado el valor establecido, normalmente debido a un cambio en las condiciones climatológicas o en los materiales utilizados como el tipo de cemento o agregados, la solución adoptada suele ser dejar curar el material más horas en la pista para que alcance la resistencia necesaria para ser procesado. Si sigue sin alcanzarla, lo cual sucede muy ocasionalmente, se intenta analizar cuál ha sido el motivo, pudiéndose tirar toda la producción de ese día si se comprueba que ha sido un fallo en la fabricación de la línea, y no un fallo de la probeta. Por tanto, esta metodología de control de calidad, basada en técnicas destructivas, supone dos tipos de problemas, costes y representatividad. Los métodos no destructivos que más se han aplicado para caracterizar el proceso de curado del hormigón son los ultrasónicos y la medida de la temperatura como se recoge en la bibliografía consultada. Hay diferentes modelos que permiten establecer una relación entre la temperatura y el tiempo de curado para estimar la resistencia a compresión del material, y entre la velocidad de propagación ultrasónica y la resistencia. Aunque estas relaciones no son generales, se han obtenido muy buenos resultados, ejemplo de ello es el modelo basado en la temperatura, Maturity Method, que forma parte de la norma de la ASTM C 1074 y en el mercado hay disponibles equipos comerciales (maturity meters) para medir el curado del hormigón. Además, es posible diseñar sistemas de medida de estos dos parámetros económicos y robustos; por lo cual es viable la realización de una metodología para el control de calidad del curado que pueda ser implantado en las plantas de producción de prefabricado. En este trabajo se ha desarrollado una metodología que permite estimar la resistencia a la compresión del hormigón durante el curado, la cual consta de un procedimiento para el control de calidad del prefabricado y un sistema inalámbrico de sensores para la medida de la temperatura y la velocidad ultrasónica. El procedimiento para el control de calidad permite realizar una predicción de la resistencia a compresión a partir de un modelo basado en la temperatura de curado y otros dos basados en la velocidad, método de tiempo equivalente y método lineal. El sistema inalámbrico de sensores desarrollado, WilTempUS, integra en el mismo dispositivo sensores de temperatura, humedad relativa y ultrasonidos. La validación experimental se ha realizado mediante monitorizaciones en probetas y en las líneas de prefabricados. Los resultados obtenidos con los modelos de estimación y el sistema de medida desarrollado muestran que es posible predecir la resistencia en prefabricados de hormigón en planta con errores comparables a los aceptables por norma en los ensayos de resistencia a compresión en probetas. ABSTRACT Precast concrete quality is determined by compression tests breakage on specimens after 28 days of curing, as established EHE-08. However, in the precast plants is also necessary to know when the concrete is ready to be processed (slack, cut, moved), so it is necessary to test the compressive strength between 48 and 72 hours. This time is determined from prior experience and depends on the conditions of each plant. If the samples have not reached the set value, usually due to changes in the weather conditions or in the materials used as for example the type of cement or aggregates, the solution usually adopted is to cure the material on track during more time to reach the required strength for processing. If the material still does not reach this strength, which happens very occasionally, the reason of this behavior is analyzed , being able to throw the entire production of that day if there was a failure in the manufacturing line, not a failure of the specimen. Therefore, this method of quality control, using destructive techniques, involves two kinds of problems, costs and representativeness. The most used non-destructive methods to characterize the curing process of concrete are those based on ultrasonic and temperature measurement as stated in the literature. There are different models to establish a relationship between temperature and the curing time to estimate the compressive strength of the material, and between the ultrasonic propagation velocity and the compressive strength. Although these relationships are not general, they have been very successful, for example the Maturity Method is based on the temperature measurements. This method is part of the standards established in ASTM C 1074 and there are commercial equipments available (maturity meters) in the market to measure the concrete curing. Furthermore, it is possible to design inexpensive and robust systems to measure ultrasounds and temperature. Therefore is feasible to determine a method for quality control of curing to be implanted in the precast production plants. In this work, it has been developed a methodology which allows to estimate the compressive strength of concrete during its curing process. This methodology consists of a procedure for quality control of the precast concrete and a wireless sensor network to measure the temperature and ultrasonic velocity. The procedure for quality control allows to predict the compressive strength using a model based on the curing temperature and two other models based on ultrasonic velocity, the equivalent time method and the lineal one. The wireless sensor network, WilTempUS, integrates is the same device temperature, relative humidity and ultrasonic sensors. The experimental validation has been carried out in cubic specimens and in the production plants. The results obtained with the estimation models and the measurement system developed in this thesis show that it is possible to predict the strength in precast concrete plants with errors within the limits of the standards for testing compressive strength specimens.
Resumo:
La gasificación de lodos de depuración es una alternativa atractiva para generar gases combustibles como H2 y CO. A su vez, estos gases pueden emplearse como materias primas para la obtención de productos químicos orgánicos y combustibles líquidos. Sin embargo, la gasificación no está exenta de problemas como el ligado a la generación de residuos sólidos y alquitrán. El alquitrán en el gas puede ser un inconveniente para emplear el gas como combustible por las obstrucciones y corrosión en los equipos. Dado que las condiciones de gasificación influyen en la producción de alquitrán, este trabajo de investigación se ha centrado en analizar la influencia de parámetros como la temperatura, la carga de alimentación, el tamaño de partícula, el agente gasificante y la utilización de catalizadores en la gasificación en lecho fluidizado de lodos de depuración. Adicionalmente a la medición del efecto de los anteriores parámetros en la producción y composición del alquitrán, también se ha cuantificado su influencia en la producción y composición del gas y en producción del residuo carbonoso. Los resultados muestran que el incremento de la carga de alimentación (kg/h.m2) provoca el descenso de la producción de gas combustible y el incremento del residuo carbonoso y del alquitrán debido a la reducción del tiempo de residencia del gas lo que supone un menor tiempo disponible para las reacciones gas-gas y gas-sólido ligadas a la conversión del alquitrán y del residuo carbonoso en gases combustibles. También se ha comprobado que, el aumento del tamaño de partícula, al incrementar el tiempo de calentamiento de ésta, tiene un efecto similar en los productos de la gasificación que el derivado del incremento en la carga de alimentación. La utilización de una temperatura de gasificación alta (850 ºC), el empleo de aire-vapor como agente gasificante y/o catalizadores primarios como la dolomía consiguen reducir la producción de alquitrán. ABSTRACT Gasification of sewage sludge is an attractive alternative for generating of fuel gases such as H2 and CO. These gases, in turn, can be used as raw materials for the production of organic chemicals and liquid fuel. However, gasification is not without problems as the linked ones to production of char and tar. The tar in the gas can be an inconvenience for to use it as fuel by the problems of blockage and corrosion in the equipments. Since the gasification conditions affect the production of tar, this research has focused on analysing the influence of parameters such as temperature, throughput, the particle size, the gasifying agent and the use of catalysts in the fluidized bed gasification of sewage sludge. In addition to measuring the effect of the above parameters on the production and composition of the tar, it has also been quantified their influence on the yield and composition of the gas and char production. The results show that higher throughput (kg/h.m2) leads to a reduction of fuel gas production and an increase in the production of char and tar, this owes to a lower of gas residence time or what is the same thing less time available for gas-solid and gas-gas reactions attached to the conversion of tar and char to fuel gases. There has also been proven that the rising in particle size, by the increasing heating time of it, has a similar effect in the products of gasification that the results by the rise in the throughput. The applications a high gasification temperature (850 ° C), the use of air-steam as gasifying agent and/or dolomite as primary catalysts are able to reduce the production of tar.
Resumo:
Permanent displacements of a gas turbine founded on a fine, poorly graded, and medium density sand are studied. The amplitudes and modes of vibration are computed using Barkan´s formulation, and the “High-Cycle Accumulation” (HCA) model is employed to account for accumulated deformations due to the high number of cycles. The methodology is simple: it can be easily incorporated into standard mathematical software, and HCA model parameters can be estimated based on granulometry and index properties. Special attention is devoted to ‘transient’ situations at equipment´s start-up, during which a range of frequencies – including frequencies that could be similar to the natural frequencies of the ground – is traversed. Results show that such transient situations could be more restrictive than stationary situations corresponding to normal operation. Therefore, checking the stationary situation only might not be enough, and studying the influence of transient situations on computed permanent displacements is needed to produce a proper foundation design
Resumo:
The application of conservation treatments, such as consolidation and protection ones, has been demonstrated ineffective in many cases, and even harmful. Evaluation studies should be a mandatory task, ideally before and after the intervention, but both tasks are complex and unusual in the case of archaeological heritage. This study is mainly focused on analyzing changes in petrophysical properties of stone material from archaeological sites of Merida (Spain), evaluating, both on site and in laboratory, effects derived from different conservation treatments applied in past interventions, throughout the integration of different non-destructive techniques (NDT) and portable devices of analysis available at the Institute of Geosciences (CSIC,UCM). These techniques allow, not only assessment of effectiveness and alteration processes, but also monitoring durability of treatments, focused mainly on 1996 intervention in the case of Roman Theater, as well as different punctual interventions from the 90’s until date in the House of Mitreo. Studies carried out on archaeological sites of Merida permit us to compare outcomes and also check limitations in the use of those equipments. In this paper we discuss about the use of some techniques, their integration and limits, for the assessment of conservation treatments, showing some examples of Merida’s case study.
Resumo:
Adjusting N fertilizer application to crop requirements is a key issue to improve fertilizer efficiency, reducing unnecessary input costs to farmers and N environmental impact. Among the multiple soil and crop tests developed, optical sensors that detect crop N nutritional status may have a large potential to adjust N fertilizer recommendation (Samborski et al. 2009). Optical readings are rapid to take and non-destructive, they can be efficiently processed and combined to obtain indexes or indicators of crop status. However, other physiological stress conditions may interfere with the readings and detection of the best crop nutritional status indicators is not always and easy task. Comparison of different equipments and technologies might help to identify strengths and weakness of the application of optical sensors for N fertilizer recommendation. The aim of this study was to evaluate the potential of various ground-level optical sensors and narrow-band indices obtained from airborne hyperspectral images as tools for maize N fertilizer recommendations. Specific objectives were i) to determine which indices could detect differences in maize plants treated with different N fertilizer rates, and ii) to evaluate its ability to identify N-responsive from non-responsive sites.
Resumo:
El presente Proyecto Fin de Grado, expone un estudio detallado del despliegue de una red FTTH para una determinada zona de viviendas. En él se podrá observar paso a paso los elementos que forman parte de las redes G-PON y las técnicas utilizadas para calcular las necesidades de cada vivienda. Este tipo de redes permite el despliegue de fibra óptica desde la central hasta la propia vivienda del abonado. La fibra óptica es el medio de transmisión de información que ofrece mejores prestaciones en cuanto a velocidad de transmisión y distancia, permitiendo ofrecer servicios que requieren de un gran ancho de banda. De esta manera, la tecnología FTTH se sitúa a la cabeza en cuanto a prestaciones frente a otras tecnologías. El principal objetivo de este despliegue es analizar el recorrido que lleva la fibra hasta llegar a la vivienda del abonado, para ello se explicará los elementos por los que pasa, los materiales y equipos que deben instalarse, las canalizaciones a utilizar y el diseño final del trazado de la fibra por las diferentes viviendas a las que queremos dar servicio. Este documento se organiza en distintos capítulos. Comienza con un capítulo donde se explican los principales objetivos de este proyecto. En el segundo capítulo se explicará la arquitectura y las principales características de las redes FTTH. En el tercer capítulo se explicaran los criterios, estructura y elementos que compone una red FTTH desde que sale de la central hasta que llega a la vivienda. Y por último, se realizará un caso práctico y real del recorrido de la fibra con sus correspondientes planos. ABSTRACT. The present Final Degree Project expounds a detailed study for the deployment of an FTTH network, for a particular housing area. We will see step by step the elements that are part of the G-PON and the techniques used to calculate the needs of each place. FTTH networks allow the deployment of optical fiber from the central office to the subcriber´s home. The optical fiber is the medium of transmission that offers the best performance in terms of speed and distance, allowing us to offer services that require high bandwidth. So, the FTTH technology takes the lead in performance over other technologies. The main objective of this deployment is to analyse the itinerary of the fiber optic to arrive to the house of the client, in order to this, it will be explained the parts that are crossed by the fiber optic, the materials and equipments that have to be instaled, the scorings and the final design of the route of the fiber optic around the houses. This document is divided in different chapters. In the first one it is explained the main objectives of this project and in the second one the architecture and main characteristics of FTTH networks. In the third chapter are described the rules, structures and elements that composed this network in order to arrive to houses. Finally, I will exemplify the previous theory with a practical case, with a real route with its plans.
Resumo:
Atualmente existe uma gama considerável de procedimentos assistenciais de saúde os quais, seja por cultura, ou por exigências legais, só podem ser realizados com aporte tecnológico. Logo reduzir o tempo de parada de um equipamento médico está diretamente associado à viabilização da assistência necessária ao paciente. Em outras palavras, prestar uma manutenção otimizada representa qualidade na prestação de serviço da unidade assistencial de saúde, podendo em alguns casos, até, evitar a morte do paciente. Para isso é muito importante que os defeitos sejam reconhecidos e tratados adequadamente, não se esquecendo da otimização dos recursos financeiros. Com base nesta premissa, este trabalho propõe estabelecer uma relação dos tipos de defeitos apresentados pelos equipamentos com sua ocorrência, utilizando para tal o método de Pareto, fornecendo uma ferramenta de análise de grande utilidade na estruturação de grupos de manutenção corretiva de um serviço de engenharia clínica. Assim foram tomados como amostra quatro tipos de equipamentos que são eletrocardiógrafos, monitores cardíacos, unidades eletrocirúrgicas e incubadoras neonatais; caracterizando a existência de defeitos que podem ser classificados em baixa, média e alta complexidade de resolução, o que reflete na necessidade de ferramentas gerais ou específicas ao reparo e do nível de qualificação da equipe técnica, além do universo de componentes, partes e peças envolvidas com cada etapa de manutenção. Foram qualificados e quantificados defeitos para cada tipo de equipamentos acima, onde se constatou que nos equipamentos médico-hospitalares estudados, a maioria das paradas requisitou intervenções simples, de baixa complexidade. Ou seja, poucos defeitos foram responsáveis por muitas ordens de serviço e que o corpo técnico de manutenção pode esperar e se programar para atuar em cada um deles de acordo com o gráfico de Pareto. Desta forma o serviço de engenharia clínica pode ser direcionado para as necessidades prioritárias do estabelecimento assistencial de saúde, sendo capaz de produzir resultados com melhor custo-benefício.
Resumo:
A qualidade da dispersão de gás em células de flotação é comumente caracterizada através de parâmetros como velocidade superficial do gás (Jg), hold-up do gás (?g), distribuição de tamanho de bolha (db ou D3,2) e fluxo de superfície de bolha (Sb). Sendo um processo de separação de minerais que é dependente da interação (colisão + adesão) entre partículas hidrofóbicas e bolhas de ar, a flotação tem seu desempenho dependente de uma dispersão de gás apropriada na polpa de minério. Desta forma, este trabalho objetivou caracterizar o estado da dispersão de gás de duas células em um banco composto por quatro células Wemco de 42,5 m³ (subaeradas), operando em série na usina da Vale Fertilizantes (Cajati-SP). Realizaram-se três campanhas de medidas que foram conduzidas sob diferentes condições operacionais: a) Diâmetro do rotor (D) de 1,09 m e rotação (N) entre 145 RPM e 175 RPM; b) D = 0,99 m e N entre 110 RPM e 190 RPM; c) D = 0,99 m e N de 120 RPM e de 130 RPM. Observaram-se os seguintes valores de dispersão de gás: 0,7 <= Jg <= 5,4 cm/s, 7 <= ?g <= 15%, 1,6 <= D3,2 <= 2,4 mm e Sb na faixa de 24 a 162 s-1. A magnitude de Jg medida na 1ª e 2ª campanhas mostrou-se acima dos valores reportados pela literatura, indicando necessidade de modificação de condições operacionais dos equipamentos, assim como cuidadosa manutenção. Posteriormente, a 3ª campanha indicou maior conformidade dos parâmetros de dispersão de gás em relação à literatura, constatando-se uma considerável melhora de desempenho do processo de flotação.
Resumo:
A busca por melhorias de produtividade na indústria da construção civil é fundamental para garantia do crescimento sustentável do setor. Nesse sentido, o uso de estruturas de aço na construção de edifícios aparece como uma alternativa interessante às tradicionais estruturas em concreto armado. Essa dissertação tem por objetivo o estudo da produtividade da mão de obra e de equipamentos de içamento na montagem de estruturas de aço para edifícios de múltiplos pavimentos, buscando comprovar a hipótese de que essa produtividade varia em conjunto com alguns fatores que podem ser identificados e que essa variação pode ser quantificada. A pesquisa foi realizada segundo metodologia de Estudo de Caso, sendo que cinco obras compuseram o estudo. Como resultados, observa-se que produtividade potencial da mão de obra variou entre 3,33 e 8,23 Hh/peça ou 11,8 e 33,8 Hh/t e que a produtividade potencial dos equipamentos variou entre 0,38 e 0,53 Eqh/peça ou 1,84 e 2,29 Eqh/t, além de terem se encontrado correlações significativas entre os fatores tonelada/peça, disponibilidade do equipamento de içamento e quantidade relativa de pilares e os indicadores de produtividade.
Resumo:
Este trabalho de pesquisa apresenta a Metodologia para a Homologação dos Equipamentos do Sistema Canal Azul da Carne - MHECAC. Esta proposta de metodologia é complementar ao desenvolvimento do Sistema Canal Azul da Carne e tem o objetivo de apoiar o MAPA (Ministério da Agricultura, Pecuária e Abastecimento) no estabelecimento de um processo de verificação da conformidade de equipamentos, buscando garantir a interoperabilidade, o desempenho e a segurança de seus componentes de hardware. O Sistema Canal Azul é uma realização do MAPA em conjunto com o GAESI da Escola Politécnica da Universidade de São Paulo (EPUSP) e a iniciativa privada, e tem o objetivo de reduzir o tempo empregado nos processos de exportação de carnes no Brasil. A MHECAC baseia-se na estrutura de processo de avaliação de conformidade estabelecida pelo Sistema Brasileiro de Avaliação da Conformidade - SBAC e seus requisitos gerais podem ser aplicados à avaliação de conformidade de produtos em setores variados. No desenvolvimento da MHECAC foram aplicadas as principais referências técnicas e normativas correspondentes aos equipamentos que compõe a arquitetura do sistema Canal Azul. Além disto, foram definidos os modelos de homologação, auditoria e inspeção, os planos de amostragem, os requisitos mínimos e a metodologia de ensaio. A MHECAC subdivide-se em dois segmentos principais. O primeiro apresenta os requisitos gerais para o estabelecimento de sistemas de avaliação da conformidade e certificação de produtos, a aplicação destes requisitos não se limita ao Sistema Canal Azul, e o segundo apresenta requisitos específicos ao sistema estabelecido pelo MAPA. A aplicação da MHECAC favorece o tratamento isonômico de fornecedores e é um importante balizador para a seleção de equipamentos, pois permite a qualificação e a comparação de soluções, por meio de um embasamento técnico, pautado pela qualidade.
Resumo:
A percepção de presença (PP), evolução do conceito de telepresença, pode ser definida como ilusão perceptiva de não mediação e/ou a percepção ilusória da realidade. O método mais utilizado para a avaliação da PP faz uso de questionários aplicados aos sujeitos, após sua participação numa experiência. Além de não fornecer informações em tempo real esse método sofre muitas interferências advindas tanto dos sujeitos submetidos ao experimento como dos avaliadores dos questionários. Os métodos que poderiam ser mais efetivos para a avaliação da PP, em tempo real, fazem uso de sinais fisiológicos que variam independentemente da vontade dos sujeitos, como batimento cardíaco, eletrocardiograma, eletroencefalograma, resistividade e umidade da pele. Os sinais fisiológicos, no entanto, só variam de forma significativa em situações de estresse, inviabilizando sua utilização em atividades normais, sem estresse. Outra forma de avaliar a PP é utilizar sistemas de rastreamento do olhar. Estudados e desenvolvidos desde o século 19, os sistemas de rastreamento do olhar fornecem um mapeamento do movimento dos olhos. Além de indicar para onde os sujeitos estão olhando, podem também monitorar a dilatação da pupila e as piscadas. Atualmente existem sistemas de rastreamento do olhar comerciais de baixo custo, que apesar de terem menos precisão e frequência que os equipamentos de alto custo são mais práticos e possuem software de plataforma aberta. No futuro serão tão comuns e simples de usar como são hoje as câmeras em dispositivos móveis e computadores, o que viabilizará a aplicação das técnicas e métodos aqui propostos em larga escala, principalmente para monitorar a atenção e envolvimento de atividades mediadas por vídeo. É apresentada uma ferramenta que faz uso do rastreamento do olhar para avaliar a percepção de presença em atividades mediadas por vídeo (com estímulos sonoros). Dois experimentos foram realizados para validar as hipóteses da pesquisa e a ferramenta. Um terceiro experimento foi executado para verificar a capacidade da ferramenta em avaliar a percepção de presença em atividades não estressantes mediadas por vídeo.
Resumo:
Ser eficiente é um requisito para a sustentabilidade das empresas concessionárias de distribuição de energia elétrica no Brasil. A busca pela eficiência deve estar em harmonia com a melhoria contínua da qualidade, da segurança e da satisfação dos consumidores e das partes envolvidas. O desafio de atender múltiplos objetivos requer que as empresas do setor desenvolvam soluções inovadoras, com a mudança de processos, tecnologia, estrutura e a capacitação das pessoas. Desenvolver um modelo operacional eficiente e uma gestão rigorosa dos custos são fatores-chave para o sucesso das empresas, considerando o contexto regulatório de revisão tarifária que incentiva a melhoria do desempenho. O modelo operacional é definido a partir da organização logística dos recursos para atendimento da demanda de serviços, que define também os custos fixos e variáveis de pessoal (salário, horas extras, refeições), infraestrutura (manutenção de prédios, ferramentas e equipamentos) e deslocamentos (manutenção de veículos, combustível), por exemplo. A melhor alocação e o melhor dimensionamento de bases operacionais possibilitam a redução dos custos com deslocamento e infraestrutura, favorecendo o aproveitamento da força de trabalho em campo, a melhoria do atendimento dos clientes e da segurança dos colaboradores. Este trabalho apresenta uma metodologia de otimização de custos através da alocação de bases e equipes operacionais, com o modelamento matemático dos objetivos e restrições do negócio e a aplicação de algoritmo evolutivo para busca das melhores soluções, sendo uma aplicação de Pesquisa Operacional, no campo da Localização de Instalações, em distribuição de energia elétrica. O modelo de otimização desenvolvido possibilita a busca pelo ponto de equilíbrio ótimo que minimiza o custo total formado pelos custos de infraestrutura, frota (veículos e deslocamentos) e pessoal. O algoritmo evolutivo aplicado no modelo oferece soluções otimizadas pelo melhoramento de conjuntos de variáveis binárias com base em conceitos da evolução genética. O modelo de otimização fornece o detalhamento de toda a estrutura operacional e de custos para uma determinada solução do problema, utilizando premissas de produtividade e deslocamentos (velocidades e distâncias) para definir as abrangências de atuação das bases operacionais, recursos (equipes, pessoas, veículos) necessários para atendimento da demanda de serviços, e projetar todos os custos fixos e variáveis associados. A metodologia desenvolvida neste trabalho considera também a projeção de demanda futura para a aplicação no estudo de caso, que evidenciou a efetividade da metodologia como ferramenta para a melhoria da eficiência operacional em empresas de distribuição de energia elétrica.
Resumo:
This study is an attempt to reconstruct the evolution of spaces and scientific equipments used for the teaching of physics and chemistry in the University of Valencia in the 19th century. Through an analysis of the instruments' characteristics and their spatial distribution, the teaching programs and textbooks, as well as the profile of the target public, we try in this essay to understand the evolution of the didactic methods employed by the successive teachers and assistants when teaching physics and chemistry in the existing cabinets, amphitheatres and laboratories.
Resumo:
En 1933, por iniciativa municipal y con el apoyo del Gobierno, con la intención de captar un turismo extranjero y nacional de élite generando una nueva ‘industria’, se convoca el concurso de anteproyectos para la construcción de una ciudad satélite (a modo de ciudad jardín) para destinarla a ciudad de vacaciones en la Playa de San Juan (cvPSJ), Alicante, al que se presentan tres propuestas. Aquí se estudia el anteproyecto ganador (de P. Muguruza), que resulta pionero por las técnicas urbanísticas empleadas (información y zonificación), por la aplicación de la fotografía para la inserción de arquitecturas y equipamientos y por la sensibilidad desplegada en la protección del patrimonio cultural (medioambiental e histórico). Los referentes para este macro complejo turístico (de casi 10 km2), coetáneo a la Ciutat del Repós i Vacances (CRV) de Castelldefels, no proceden tanto de Europa como de EUA. Se realiza un análisis pormenorizado de la ordenación urbanística en atención a cómo el territorio existente la condiciona y se entrelaza con estrategias de promoción turística, donde se combinan la tríada: hotel, deporte y naturaleza (alojamiento, ocio y salud). Pero toda la ciudad está enfocada a un turismo burgués, para el que se prevé una arquitectura comercial que pronto envejecería en su repertorio. Veinticinco años después, en 1958, cuando las condiciones económicas y sociales fueron favorables al desarrollo de la zona, el mundo sería ya otro y el proyecto quedó obsoleto.