725 resultados para discos olfativos
Resumo:
Los sistemas microinformáticos se componen principalmente de hardware y software, con el paso del tiempo el hardware se degrada, se deteriora y en ocasiones se avería. El software evoluciona, requiere un mantenimiento, de actualización y en ocasiones falla teniendo que ser reparado o reinstalado. A nivel hardware se analizan los principales componentes que integran y que son comunes en gran parte estos sistemas, tanto en equipos de sobre mesa como portátiles, independientes del sistema operativo, además de los principales periféricos, también se analizan y recomiendan algunas herramientas necesarias para realizar el montaje, mantenimiento y reparación de estos equipos. Los principales componentes hardware internos son la placa base, memoria RAM, procesador, disco duro, carcasa, fuente de alimentación y tarjeta gráfica. Los periféricos más destacados son el monitor, teclado, ratón, impresora y escáner. Se ha incluido un apartado donde se detallan los distintos tipos de BIOS y los principales parámetros de configuración. Para todos estos componentes, tanto internos como periféricos, se ha realizado un análisis de las características que ofrecen y los detalles en los que se debe prestar especial atención en el momento de seleccionar uno frente a otro. En los casos que existen diferentes tecnologías se ha hecho una comparativa entre ambas, destacando las ventajas y los inconvenientes de unas frente a otras para que sea el usuario final quien decida cual se ajusta mejor a sus necesidades en función de las prestaciones y el coste. Un ejemplo son las impresoras de inyección de tinta frente a las laser o los discos duros mecánicos en comparación con y los discos de estado sólido (SSD). Todos estos componentes están relacionados, interconectados y dependen unos de otros, se ha dedicado un capítulo exclusivamente para estudiar cómo se ensamblan estos componentes, resaltando los principales fallos que se suelen cometer o producir y se han indicado unas serie tareas de mantenimiento preventivo que se pueden realizar para prolongar la vida útil del equipo y evitar averías por mal uso. Los mantenimientos se pueden clasificar como predictivo, perfectivo, adaptativo, preventivo y correctivo. Se ha puesto el foco principalmente en dos tipos de mantenimiento, el preventivo descrito anteriormente y en el correctivo, tanto software como hardware. El mantenimiento correctivo está enfocado al análisis, localización, diagnóstico y reparación de fallos y averías hardware y software. Se describen los principales fallos que se producen en cada componente, cómo se manifiestan o qué síntomas presentan para poder realizar pruebas específicas que diagnostiquen y acoten el fallo. En los casos que es posible la reparación se detallan las instrucciones a seguir, en otro caso se recomienda la sustitución de la pieza o componente. Se ha incluido un apartado dedicado a la virtualización, una tecnología en auge que resulta muy útil para realizar pruebas de software, reduciendo tiempos y costes en las pruebas. Otro aspecto interesante de la virtualización es que se utiliza para montar diferentes servidores virtuales sobre un único servidor físico, lo cual representa un importante ahorro en hardware y costes de mantenimiento, como por ejemplo el consumo eléctrico. A nivel software se realiza un estudio detallado de los principales problemas de seguridad y vulnerabilidades a los que está expuesto un sistema microinformático enumerando y describiendo el comportamiento de los distintos tipos de elementos maliciosos que pueden infectar un equipo, las precauciones que se deben tomar para minimizar los riesgos y las utilidades que se pueden ejecutar para prevenir o limpiar un equipo en caso de infección. Los mantenimientos y asistencias técnicas, en especial las de tipo software, no siempre precisan de la atención presencial de un técnico cualificado, por ello se ha dedicado un capítulo a las herramientas de asistencia remota que se pueden utilizar en este ámbito. Se describen algunas de las más populares y utilizadas en el mercado, su funcionamiento, características y requerimientos. De esta forma el usuario puede ser atendido de una forma rápida, minimizando los tiempos de respuesta y reduciendo los costes. ABSTRACT Microcomputer systems are basically made up of pieces of hardware and software, as time pass, there’s a degradation of the hardware pieces and sometimes failures of them. The software evolves, new versions appears and requires maintenance, upgrades and sometimes also fails having to be repaired or reinstalled. The most important hardware components in a microcomputer system are analyzed in this document for a laptop or a desktop, with independency of the operating system they run. In addition to this, the main peripherals and devices are also analyzed and a recommendation about the most proper tools necessary for maintenance and repair this kind of equipment is given as well. The main internal hardware components are: motherboard, RAM memory, microprocessor, hard drive, housing box, power supply and graphics card. The most important peripherals are: monitor, keyboard, mouse, printer and scanner. A section has been also included where different types of BIOS and main settings are listed with the basic setup parameters in each case. For all these internal components and peripherals, an analysis of their features has been done. Also an indication of the details in which special attention must be payed when choosing more than one at the same time is given. In those cases where different technologies are available, a comparison among them has been done, highlighting the advantages and disadvantages of selecting one or another to guide the end user to decide which one best fits his needs in terms of performance and costs. As an example, the inkjet vs the laser printers technologies has been faced, or also the mechanical hard disks vs the new solid state drives (SSD). All these components are interconnected and are dependent one to each other, a special chapter has been included in order to study how they must be assembled, emphasizing the most often mistakes and faults that can appear during that process, indicating different tasks that can be done as preventive maintenance to enlarge the life of the equipment and to prevent damage because of a wrong use. The different maintenances can be classified as: predictive, perfective, adaptive, preventive and corrective. The main focus is on the preventive maintains, described above, and in the corrective one, in software and hardware. Corrective maintenance is focused on the analysis, localization, diagnosis and repair of hardware and software failures and breakdowns. The most typical failures that can occur are described, also how they can be detected or the specific symptoms of each one in order to apply different technics or specific tests to diagnose and delimit the failure. In those cases where the reparation is possible, instructions to do so are given, otherwise, the replacement of the component is recommended. A complete section about virtualization has also been included. Virtualization is a state of the art technology that is very useful especially for testing software purposes, reducing time and costs during the tests. Another interesting aspect of virtualization is the possibility to have different virtual servers on a single physical server, which represents a significant savings in hardware inversion and maintenance costs, such as electricity consumption. In the software area, a detailed study has been done about security problems and vulnerabilities a microcomputer system is exposed, listing and describing the behavior of different types of malicious elements that can infect a computer, the precautions to be taken to minimize the risks and the tools that can be used to prevent or clean a computer system in case of infection. The software maintenance and technical assistance not always requires the physical presence of a qualified technician to solve the possible problems, that’s why a complete chapter about the remote support tools that can be used to do so has been also included. Some of the most popular ones used in the market are described with their characteristics and requirements. Using this kind of technology, final users can be served quickly, minimizing response times and reducing costs.
Resumo:
Estudios recientes promueven la integración de estímulos multisensoriales en activos multimedia con el fin de mejorar la experiencia de usuario mediante la estimulación de nuevos sentidos, más allá de la tradicional experiencia audiovisual. Del mismo modo, varios trabajos proponen la introducción de componentes de interacción capaces de complementar con nuevas características, funcionalidades y/o información la experiencia multimedia. Efectos sensoriales basados en el uso de nuevas técnicas de audio, olores, viento, vibraciones y control de la iluminación, han demostrado tener un impacto favorable en la sensación de Presencia, en el disfrute de la experiencia multimedia y en la calidad, relevancia y realismo de la misma percibidos por el usuario. Asimismo, los servicios basados en dos pantallas y la manipulación directa de (elementos en) la escena de video tienen el potencial de mejorar la comprensión, la concentración y la implicación proactiva del usuario en la experiencia multimedia. El deporte se encuentra entre los géneros con mayor potencial para integrar y explotar éstas soluciones tecnológicas. Trabajos previos han demostrado asimismo la viabilidad técnica de integrar éstas tecnologías con los estándares actualmente adoptados a lo largo de toda la cadena de transmisión de televisión. De este modo, los sistemas multimedia enriquecidos con efectos sensoriales, los servicios interactivos multiplataforma y un mayor control del usuario sobre la escena de vídeo emergen como nuevas formas de llevar la multimedia immersiva e interactiva al mercado de consumo de forma no disruptiva. Sin embargo, existen numerosas interrogantes relativas a los efectos sensoriales y/o soluciones interactivas más adecuadas para complementar un contenido audiovisual determinado o a la mejor manera de de integrar y combinar dichos componentes para mejorar la experiencia de usuario de un segmento de audiencia objetivo. Además, la evidencia científica sobre el impacto de factores humanos en la experiencia de usuario con estas nuevas formas de immersión e interacción en el contexto multimedia es aún insuficiente y en ocasiones, contradictoria. Así, el papel de éstos factores en el potencial de adopción de éstas tecnologías ha sido amplia-mente ignorado. La presente tesis analiza el impacto del audio binaural, efectos sensoriales (de iluminación y olfativos), interacción con objetos 3D integrados en la escena de vídeo e interacción con contenido adicional utilizando una segunda pantalla en la experiencia de usuario con contenidos de deporte. La posible influencia de dichos componentes en las variables dependientes se explora tanto a nivel global (efecto promedio) como en función de las características de los usuarios (efectos heterogéneos). Para ello, se ha llevado a cabo un experimento con usuarios orientado a explorar la influencia de éstos componentes immersivos e interactivos en dos grandes dimensiones de la experiencia multimedia: calidad y Presencia. La calidad de la experiencia multimedia se analiza en términos de las posibles variaciones asociadas a la calidad global y a la calidad del contenido, la imagen, el audio, los efectos sensoriales, la interacción con objetos 3D y la interacción con la segunda pantalla. El posible impacto en la Presencia considera dos de las dimensiones definidas por el cuestionario ITC-SOPI: Presencia Espacial (Spatial Presence) e Implicación (Engagement). Por último, los individuos son caracterizados teniendo en cuenta los siguientes atributos afectivos, cognitivos y conductuales: preferencias y hábitos en relación con el contenido, grado de conocimiento de las tecnologías integradas en el sistema, tendencia a involucrarse emocionalmente, tendencia a concentrarse en una actividad bloqueando estímulos externos y los cinco grandes rasgos de la personalidad: extroversión, amabilidad, responsabilidad, inestabilidad emocional y apertura a nuevas experiencias. A nivel global, nuestro estudio revela que los participantes prefieren el audio binaural frente al sistema estéreo y que los efectos sensoriales generan un aumento significativo del nivel de Presencia Espacial percibido por los usuarios. Además, las manipulaciones experimentales realizadas permitieron identificar una gran variedad de efectos heterogéneos. Un resultado interesante es que dichos efectos no se encuentran distribuidos de forma equitativa entre las medidas de calidad y Presencia. Nuestros datos revelan un impacto generalizado del audio binaural en la mayoría de las medidas de calidad y Presencia analizadas. En cambio, la influencia de los efectos sensoriales y de la interacción con la segunda pantalla se concentran en las medidas de Presencia y calidad, respectivamente. La magnitud de los efectos heterogéneos identificados está modulada por las siguientes características personales: preferencias en relación con el contenido, frecuencia con la que el usuario suele ver contenido similar, conocimiento de las tecnologías integradas en el demostrador, sexo, tendencia a involucrarse emocionalmente, tendencia a a concentrarse en una actividad bloqueando estímulos externos y niveles de amabilidad, responsabilidad y apertura a nuevas experiencias. Las características personales consideradas en nuestro experimento explicaron la mayor parte de la variación en las variables dependientes, confirmando así el importante (y frecuentemente ignorado) papel de las diferencias individuales en la experiencia multimedia. Entre las características de los usuarios con un impacto más generalizado se encuentran las preferencias en relación con el contenido, el grado de conocimiento de las tecnologías integradas en el sistema y la tendencia a involucrarse emocionalmente. En particular, los primeros dos factores parecen generar un conflicto de atención hacia el contenido versus las características/elementos técnicos del sistema, respectivamente. Asimismo, la experiencia multimedia de los fans del fútbol parece estar modulada por procesos emociona-les, mientras que para los no-fans predominan los procesos cognitivos, en particular aquellos directamente relacionados con la percepción de calidad. Abstract Recent studies encourage the integration of multi-sensorial stimuli into multimedia assets to enhance the user experience by stimulating other senses beyond sight and hearing. Similarly, the introduction of multi-modal interaction components complementing with new features, functionalities and/or information the multimedia experience is promoted. Sensory effects as odor, wind, vibration and light effects, as well as an enhanced audio quality, have been found to favour media enjoyment and to have a positive influence on the sense of Presence and on the perceived quality, relevance and reality of a multimedia experience. Two-screen services and a direct manipulation of (elements in) the video scene have the potential to enhance user comprehension, engagement and proactive involvement of/in the media experience. Sports is among the genres that could benefit the most from these solutions. Previous works have demonstrated the technical feasibility of implementing and deploying end-to-end solutions integrating these technologies into legacy systems. Thus, sensorially-enhanced media, two-screen services and an increased user control over the displayed scene emerge as means to deliver a new form of immersive and interactive media experiences to the mass market in a non-disruptive manner. However, many questions remain concerning issues as the specific interactive solutions or sensory effects that can better complement a given audiovisual content or the best way in which to integrate and combine them to enhance the user experience of a target audience segment. Furthermore, scientific evidence on the impact of human factors on the user experience with these new forms of immersive and interactive media is still insufficient and sometimes, contradictory. Thus, the role of these factors on the potential adoption of these technologies has been widely ignored. This thesis analyzes the impact of binaural audio, sensory (light and olfactory) effects, interaction with 3D objects integrated into the video scene and interaction with additional content using a second screen on the sports media experience. The potential influence of these components on the dependent variables is explored both at the overall level (average effect) and as a function of users’ characteristics (heterogeneous effects). To these aims, we conducted an experimental study exploring the influence of these immersive and interactive elements on the quality and Presence dimensions of the media experience. Along the quality dimension, we look for possible variations on the quality scores as-signed to the overall media experience and to the media components content, image, audio, sensory effects, interaction with 3D objects and interaction using the tablet device. The potential impact on Presence is analyzed by looking at two of the four dimensions defined by the ITC-SOPI questionnaire, namely Spatial Presence and Engagement. The users’ characteristics considered encompass the following personal affective, cognitive and behavioral attributes: preferences and habits in relation to the content, knowledge of the involved technologies, tendency to get emotionally involved and tendency to get absorbed in an activity and block out external distractors and the big five personality traits extraversion, agreeableness, conscientiousness, neuroticism and openness to experience. At the overall level, we found that participants preferred binaural audio than standard stereo audio and that sensory effects increase significantly the level of Spatial Presence. Several heterogeneous effects were also revealed as a result of our experimental manipulations. Interestingly, these effects were not equally distributed across the quality and Presence measures analyzed. Whereas binaural audio was foud to have an influence on the majority of the quality and Presence measures considered, the effects of sensory effects and of interaction with additional content through the tablet device concentrate mainly on the dimensions of Presence and on quality measures, respectively. The magnitude of these effects was modulated by individual’s characteristics, such as: preferences in relation to the content, frequency of viewing similar content, knowledge of involved technologies, gender, tendency to get emotionally involved, tendency to absorption and levels of agreeableness, conscientiousness and openness to experience. The personal characteristics collected in our experiment explained most of the variation in the dependent variables, confirming the frequently neglected role of individual differences on the media experience. Preferences in relation to the content, knowledge of involved technologies and tendency to get emotionally involved were among the user variables with the most generalized influence. In particular, the former two features seem to present a conflict in the allocation of attentional resources towards the media content versus the technical features of the system, respectively. Additionally, football fans’ experience seems to be modulated by emotional processes whereas for not fans, cognitive processes (and in particular those related to quality judgment) prevail.
Resumo:
El estudio de la influencia de perturbaciones de distinta naturaleza en configuraciones de puentes líquidos apoyados en dos discos coaxiales en rotación encuentra una importante motivación en el uso de dicha configuración en la fabricación de cristales semiconductores ultra-puros por la denominada técnica de zona flotante, en la que la rotación de los discos se utiliza para alcanzar temperaturas uniformes. El presente estudio muestra los resultados obtenidos mediante la aplicación de un método numérico en el análisis de la estabilidad de puentes líquidos en isorrotación sometidos al efecto de una fuerza axial uniforme (gravedad axial) y una excentricidad entre el eje de giro y el eje de los discos. Se analiza el efecto de la aplicación de estos factores tanto de forma conjunta como por separado. Aunque existen numerosos estudios previos sobre puentes líquidos sometidos a diversos efectos, el análisis del efecto combinado de la rotación con excentricidad y gravedad axial no ha sido realizado con anterioridad. Este estudio permite además entender los resultados del experimento a bordo de la misión TEXUS-23, en el que un puente líquido sujeto entre dos discos circulares y coaxiales es sometido al efecto de una rotación creciente en torno a un eje desplazado respecto al eje de los discos. Aunque en el experimento no se impone una fuerza axial controlada, la desestabilización y rotura del puente se produce de forma notablemente asimétrica, lo que no puede ser explicado con los estudios precedentes y sugiere una posible presencia de una aceleración axial residual. Se ha desarrollado por tanto un método de análisis de imágenes que permite comparar las formas obtenidas en el experimento con las calculadas numéricamente. En este estudio se muestran los detalles del procesado realizado en las imágenes de la misión TEXUS-23, y los resultados de su comparación con el análisis numérico, que permiten determinar el valor de la gravedad axial que mejor reproduce los resultados del experimento. Estos resultados ponen de manifiesto la importancia del conocimiento y la modelización de efectos cuya presencia (intencionada o no) afectan de forma visible a la estabilidad y la morfología de los puentes líquidos. ABSTRACT The study of the influence of various disturbances in configurations consisting of a liquid bridge supported by two co-axial disks in rotation has an important motivation in the use of this configuration in the fabrication of ultrapure semiconductor crystals via the so-called floating zone technique, in which the rotation of the disks is used to achieve a uniform temperature field. The present study shows the results obtained through the application of a numerical method in the analysis of the stability of liquid bridges in isorotation under the effect of a uniform axial force field (axial gravity) and an offset between the rotation axis and the axis of the supporting disks (eccentricity). The analysis studies the effect of both the combined and separate application of these factors. Although there are numerous studies on liquid bridges subject to various effects, the analysis of the combined effect of rotation with eccentricity and axial gravity has not been done before. Furthermore, this study allows us to understand the results from the experiment aboard the TEXUS-23 mission, in which a liquid bridge supported between two circular-shaped, co-axial disks is subject to the effect of an increasing rotation around an axis with an offset with respect to the axis of the disks. Although the experiment conditions do not include a controlled axial force field, the instability and breakage of the bridge occurs with a marked asymmetry, which cannot be explained by previous studies and suggests the possible presence of a residual axial gravity. Therefore, an image analysis method has been developed which allows to compare the shapes obtained in the experiment with those calculated with the numerical method. This study shows the details of the processing performed on the images from the TEXUS-23 mission and the results from their comparison with the numerical analysis, which allow to determine the axial gravity value which best recovers the experimental results. These results highlight the importance of the understanding and modelling of effects which, when present (intentionally or not), noticeably affect the stability and shape of the liquid bridges.
Desarrollo de una aplicación web para la reducción de ruido del sonido grabado de un disco de vinilo
Resumo:
Las grabaciones digitales de discos de vinilo, al ser un medio de almacenamiento de sonido analógico, están afectadas por ruido de diversos tipos, debido al deterioro de la superficie con el tiempo y con su reproducción. Aunque algunos programas de edición de audio permiten hacer una reducción de ruido sobre esas grabaciones, muchos consumidores de música en vinilo los desconocen, encuentran complicado su uso o quieren evitar la instalación de programas adicionales en su ordenador. Este proyecto consiste en el desarrollo de una aplicación web que pretende acabar con estos impedimentos y ofrecer un medio sencillo y eficaz para la reducción de ruido, ejecutable a través de un navegador, que simplifique el proceso de cara al usuario. El funcionamiento es sencillo: un usuario sube un archivo de audio al servidor, éste lo procesa y lo devuelve al cliente. El servidor, en la fase de procesamiento de señal, realiza una reducción de ruido mediante una puerta de ruido en el dominio de la frecuencia, desarrollada en lenguaje Python, y diseñada en función de un estudio previo de diversas muestras de ruido. En el proyecto se pueden distinguir tres bloques: la caracterización del ruido que afecta a grabaciones de discos de vinilo, el desarrollo de un algoritmo que realice la reducción de ruido correspondiente y el desarrollo de la aplicación web. En este documento se recogen los fundamentos de cada uno de los bloques, tratando de resumir las bases de su funcionamiento y de justificar cada una de las decisiones tomadas, como la tecnología empleada, el valor de algunos parámetros, la estructura del código o los pasos seguidos en cada algoritmo.
Resumo:
Esta pesquisa tem por objetivo analisar sob quais aspectos se dá a interação entre mídia e religião, bem como as tensões ou continuidades que a aproximação do ‘sagrado’ com o ‘profano’ na sociedade midiatizada evoca. Para tal, elegemos como objeto de estudo a participação dos artistas evangélicos no Programa Esquenta!, exibido nas tardes de domingo, pela Rede Globo. Tomamos como referencial teórico os conceitos de cultura gospel, de midiatização, especialmente o conceito de bios midiático, e a discussão sobre secularização proposta por Habermas. A metodologia empregada prevê duas etapas. A primeira consiste numa uma análise de conteúdo de cinco edições do programa que contaram com a participação de artistas evangélicos, exibidas nos anos de 2013 e 2014. Nesse momento, o objetivo foi perceber o lugar que a música gospel ocupa dentro da proposta do programa. A segunda etapa consiste na realização de dois grupos de discussão, um formado por evangélicos e o outro por não-evangélicos, para compreender como os conteúdos religiosos deslocados de seu contexto original são ressignificados pela audiência. Resulta desta pesquisa a observação de que a participação dos artistas gospel no Esquenta! oferece novos modos de olhar que ampliam o conceito de cultura gospel, bem como legitima a mídia como lugar de experiência religiosa. Além disso, ilustra a perspectiva habermasiana ao refletir a dupla afetação entre universo religioso e vida secular, que emerge do entrecruzamento entre mídia e religião.
Resumo:
Este artículo plantea un análisis de la escena independiente actual en España, que vive un momento de transformación y de polémica. Parece que el influjo del 15M ha terminado por permear un entorno habitualmente blindado a lo político como es el de esta escena musical, surgiendo diversos discos con notable carga política (Vetusta Morla, Nacho Vegas). Esta politización contrasta vivamente con la visión clásica del indie, criticado por su elitismo. La etiqueta hispter, asociada a una inmersión en el mundo del consumismo cultural para evitar ser conscientes de la precarización de las condiciones de vida de los trabajadores culturales, ha sido repetidamente aplicada a esta escena musical. Incluso este proceso de politización es visto desde ciertas posiciones como una nueva impostura, un intento de estar al tanto de los tiempos, ya que lo político parece estar de moda. Este artículo aborda estas polémicas desde una metodología multidisciplinar a partir del análisis semiótico de vídeos musicales y las letras de canciones y el trabajo documental sobre artículos en prensa. El artículo plantea a su vez una genealogía de la politización del indie español y sus conexiones con las actitudes políticas, pasadas y recientes, cultivadas desde otros géneros musicales.
Resumo:
Lesões dentais por erosão têm sido cada vez mais presentes na prática clínica. A restauração direta com resina composta é uma das opções de tratamento para lesões severas, em que há comprometimento estético/funcional. Com o aprimoramento da tecnologia, a utilização do laser para pré-tratamento da superfície dentinária, antes do condicionamento ácido, tem sido considerada como método alternativo para melhorar a adesão das resinas compostas às superfícies erodidas. Assim, o objetivo deste estudo in vitro foi avaliar a influência da irradiação com laser de Er:YAG (2,94 ?m), de pulso super-curto, na adesão da resina composta à superfície dentinária erodida. Quarenta e seis discos de dentina foram obtidos a partir de 46 dentes terceiros molares humanos. A dentina oclusal planificada de 40 molares humanos teve metade de sua face protegida com fita UPVC (dentina hígida), enquanto na outra metade foi produzida uma lesão de erosão através da ciclagem em ácido cítrico (0,05 M, pH 2,3, 10 minutos, 6x/dia) e solução supersaturada (pH 7,0, 60 minutos entre os ataques ácidos). Metade das amostras foi irradiada com o laser de Er:YAG (50 ?s, 2 Hz, 80 mJ, 12,6 J/cm2) e a outra não (grupo controle). Em cada grupo de tratamento (laser ou controle) (n=10), um sistema adesivo autocondicionante foi utilizado e, então, confeccionados 2 cilindros de resina composta, tanto do lado erodido como no hígido (total de 4 cilindros), os quais foram submetidos à avaliação da Resistência de União através do ensaio de microcisalhamento (1 mm/min), após armazenamento em saliva artificial por 24 h. A análise do padrão de fratura foi realizada em microscópio óptico (40x). Por meio da Microscopia Eletrônica de Varredura (MEV), a morfologia das superfícies dentinárias hígida e submetida ao desafio erosivo, antes e após o tratamento com laser de Er:YAG (n=3), foi avaliada. Os valores obtidos de resistência de união (MPa) foram submetidos ao teste ANOVA e de comparações múltiplas de Tukey (p<0,05) e as análises das eletromicrografias foram feitas de forma descritiva. A análise morfológica da superfície mostrou alterações significativas na dentina hígida irradiada e na submetida à ciclagem erosiva, irradiada ou não. Quanto à resistência de união, houve diferença entre os 4 substratos analisados, sendo: dentina hígida irradiada (12,77±5,09 A), dentina hígida não irradiada (9,76±3,39 B), dentina erodida irradiada (7,62±3,39 C) e dentina erodida não irradiada (5,12±1,72 D). Houve predominância de padrão de fratura do tipo adesiva. Com base nos resultados e nos parâmetros de irradiação utilizados neste estudo, pode-se concluir que a erosão reduz a adesão em dentina e que o tratamento da superfície dentinária com laser de Er:YAG de largura de pulso super curta aumenta a adesão no substrato erodido ou hígido.
Resumo:
Este trabalho apresenta as propriedades morfológicas, físicas e químicas do diamante da região do Alto Araguaia, situada na borda norte da Bacia do Paraná. Os cristais estudados provém dos garimpos dos rios Garças, Araguaia, Caiapó e seus tributários menores. As dimensões dos cristais embora variáveis concentram-se no intervalo 2-15 mm. Ao contrário do que se observa no Alto Paranaíba, são raros os achados de grande porte. Os fragmentos de clivagem são abundantes, indicando transporte prolongado. Cerca de metade dos indivíduos cristalinos são incolores, sendo os demais castanhos, amarelos, verdes e cinzas. Outras cores como rosa e violeta ocorrem excepcionalmente. A morfologia dos cristais é complexa e variada, caracterizando-se pelo acentuado predomínio do hábito rombododecaédrico, grande número de geminados de contato e ausência de formas cúbicas. As faces exibem grau variável de curvatura e diversos padrões de microestruturas resultantes da dissolução provocada por agentes oxidantes. O ataque parece ocorrer durante a colocação do kimberlito, quando o alívio de pressão eleva a temperatura favorecendo a corrosão. As microestruturas mais freqüentes são degraus, colinas e micro-discos em (110), depressões triangulares eqüiláteras em (111), e depressões quadráticas em (100). Alguns diamantes contém inclusões cristalinas, sendo as mais comuns olivina (forsterita), granada (piropo) e o próprio diamante. Esses minerais apresentam-se geralmente idiomorfos e circundados por anomalias ópticas (birrefringência anômala), evidenciando o caráter epigenético dessas inclusões. Anàlogamente ao que ocorre nos kimberlitos africanos e siberianos, essas inclusões são minerais característicos de altas pressões e temperaturas, sendo a olivina a variedade mais freqüente, seguida pelo diamante e granada. Essa é uma evidência de que o diamante do Alto Araguaia provém de matrizes ultrabásicas (kimberlíticas). As inclusões negras (carvões) são extremamente comuns e parecem constituir defeitos do retículo cristalino (clivagens internas, deslocamentos estruturais), resultando talvez de impactos sofridos pelos cristais durante as diversas fases de transporte. O comportamento ao infravermelho indica que a maior parte dos cristais (85%) contém impurezas de nitrogênio (tipo I), sob forma de placas submicroscópicas paralelas a (100) (tipo Ia), ou átomos dispersos no retículo cristalino (tipo Ib). Os espécimes desprovidos de nitrogênio (tipo II) são relativamente raros (6%), sendo os demais intermediários (9%) entre I e II. Além do nitrogênio, os espectros infravermelhos revelaram que alguns diamantes contém hidrogênio. A presença deste elemento juntamente com o carbono e nitrogênio, sugere uma derivação a partir de sedimentos ricos em matéria orgânica, os quais teriam sido incorporados ao magma kimberlítico por correntes de convecção subcrostais. Outras impurezas menores (elementos traços) são: Al, Ca, Si, Mg, Fe, Cu, Cr e Co. Estes elementos são os mesmos encontrados nos diamantes dos kimberlitos africanos. Observado sob luz ultravioleta, 36% dos cristais exibem cores de fluorescência, sendo as mais comuns o azul e verde, e mais raramente amarelo e castanho. Entre as variedades fluorescentes, 27% são também fosforescentes, sendo a cor mais comum o azul. Não foi observada nenhuma relação entre o comportamento luminescente e as demais propriedades estudadas. O peso específico varia entre 3,500 a 3,530. As principais causas dessa variação são as impurezas de nitrogênio, as inclusões minerais e alguns defeitos cristalinos. Os resultados desta pesquisa indicam claramente que as propriedades do diamante do Alto araguaia são semelhantes às dos diamantes africanos e siberianos, originários de matrizes kimberlíticas. Nenhum dado foi obtido que sugerisse uma origem \"sui generis\" para o material estudado. Em relação à localização das possíveis chaminés dispersoras dos cristais, duas alternativas se apresentam: 1) poderiam estar relacionadas ao magmatismo Neocretáceo, responsável por numerosos focos vulcânicos próximos à área; ou 2) ligadas a episódios mais antigos ocorridos no Pré-Cambriano. Em qualquer das alternativas, poderiam estar recobertas por sedimentos mais recentes ou alteradas superficialmente, sendo que, no caso de uma idade pré-cambriana, há ainda a possibilidade destas matrizes terem sido totalmente destruídas.
Resumo:
O presente trabalho de mestrado teve como meta realizar um estudo do comportamento do cobre particulado em ensaios tribológicos do tipo pino contra disco. O cobre é atualmente utilizado em até 15% em massa das pastilhas de freios automotivos e tal utilização é responsável pela emissão de até 70% do cobre particulado presente no ar. Devido ao caráter carcinogênico do cobre, se faz necessária sua substituição. Foram realizados ensaios tribológicos pino disco com adição de diferentes meios interfaciais. Foram utilizados pares tribológicos aço/aço, em ensaios a seco de pino contra disco com adição de meio interfacial nanoparticulado de óxido de ferro, grafite e de cobre metálico em diferentes granulometrias (400 m, 20 m e 50 nm). Após os ensaios, amostras das superfícies de pinos e discos para cada uma das adições de cobre, bem como para a condição sem adição de meio interfacial, foram caracterizadas utilizando técnicas de microscopia eletrônica de varredura, de forma a entender o comportamento das partículas de cobre e sua contribuição para o coeficiente de atrito. As adições de cobre obtiveram os maiores coeficientes de atrito, e entre elas os coeficientes de atrito foram mais altos durante todos os ensaios para a adição de 50 nm, seguido de 20 m e 400 m. A análise das superfícies tribológicas em MEV mostrou heterogeneidade das superfícies ensaiadas em relação à presença de debris oxidados e camadas compactas. Observou-se a presença de cobre apenas nas superfícies ensaiadas com adição dos cobres de 50 nm e 20 m. A presença de um filme óxido compacto e contínuo foi observada apenas nas superfícies tribológicas ensaiadas sem adição de meio interfacial e com adição de cobre a 400 m.
Resumo:
Desde que en 1981 la cadena norteamericana de televisión por cable MTV introdujera el videoclip como elemento transgresor en el entramado televisivo, no ha existido pieza audiovisual más permeable, impactante e innovadora en la reciente historia del audiovisual. Representante vivo de la sociedad postmoderna, heredero de las vanguardias y popular herramienta publicitaria; el vídeo musical ha conseguido aquello que el cine sigue intentando instaurar: llegar al “mainstream” social inculcando premisas artísticas. Actualmente, no hay artista musical que no tenga alguna obra vídeo musical que ilustre su trabajo. Forma parte de su imagen de marca y es una herramienta de marketing indispensable. El cantante pop no solo vende su música, vende una imagen que busca identificar a un público que, en consecuencia, consumirá su música. Pero, ¿en qué medida es cuantificable el éxito del videoclip? En los albores de dicha cadena televisiva, resultaba evidente la incidencia de videoclips como Thriller (John Landis, 1983) en las ventas de discos (Pérez-Yarza, 1996, 30). Hoy en día, el vídeo musical es más una inercia empresarial cuyos costes de producción han bajado de manera considerable y su éxito se mide en número de reproducciones...
Resumo:
Este estudo avaliou a eficiência da oleuropeína (OLE) (composto fenólico extraído das folhas de Oliveira) isolada e associada aos sanitizantes comerciais ácido peracético 2% (APA), hipoclorito de sódio 2% (HS), peróxido de hidrogênio 3% (PH), digluconato de clorexidina 2% (DC), cloreto de benzalcônio 1% (CB) e iodofor 2% (IO), para inativação de células em suspensão e biofilmes monoespécie e multiespécie formados em superfícies de aço inoxidável ou microplaca de poliestireno por Listeria monocytogenes (ATCC 7644), Staphylococcus aureus (ATCC 25923) e Escherichia coli (ATCC 25922), todas classificadas como fortes produtores de biofilmes. Os isolados foram semeados em caldo TSB (caldo tripticase soja), incubados (37°C/24h) e corrigidos a ~108células/mL (escala 0,5 McFarland). Para bactérias em suspensão, a resistência a sanitizantes foi determinada pela Concentração Inibitória Mínima (CIM) em tubos e pelo método de Disco Difusão em Ágar (DDA), no qual as bactérias foram plaqueadas em ágar TSA contendo discos de 6mm de papel filtro embebidos nos sanitizantes. Após a incubação, a medição dos halos de inibição foi feita com paquímetro. Para os ensaios de resistência dos biofilmes aos compostos sanitizantes, foram utilizadas microplacas de poliestireno 96 poços, as quais foram preparadas para incubação-fixação dos biofilmes e submetidas à leitura em espectrofotômetro de ELISA (600 nm). Em seguida, as placas foram lavadas com solução salina tamponada (PBS, pH 7.4) e os sanitizantes inseridos por 1 minuto. Após neutralização com tiossulfato de sódio (5 minutos), as placas foram lavadas com PBS e metanol, coradas com cristal violeta 1% e coradas com ácido acético glacial (33%) para nova leitura a 570nm. A eficácia da remoção do biofilme pelos sanitizantes foi comparada pelo índice de formação de biofilme (IFB). As imagens do aço inoxidável após tratamento com sanitizante foram feitas através de Microscopia Eletrônica de Varredura (MEV) e Microscopia Confocal, para visualizar a persistência dos biofilmes. Os valores de CIM (diluição 1:2) mostraram que OLE não teve atividade bactericida. No método DDA, L. monocytogenes, foi resistente à OLE, enquanto E. coli e S. aureus apresentaram resistência intermediária. Os sanitizantes comerciais apresentaram boa atividade bactericida nos ensaios de CIM e DDA, sendo que as associações de OLE aos sanitizantes comerciais aumentaram o efeito germicida. Nos ensaios com biofilmes em monoespécie, somente os sanitizantes comerciais, isolados ou associados com OLE, foram eficazes de reduzir o valor de BFI em microplaca de poliestireno. Em biofilmes multiespécie, OLE apresentou efeito antimicrobiano, sobretudo sobre a associação de L. monocytogenes + E. coli + S. aureus (redução: 91,49%). Nenhum dos compostos avaliados foi capaz de inativar completamente os biofilmes nas superfícies de aço inoxidável, uma vez que células viáveis foram observadas após os tratamentos com os sanitizantes, indicando persistência dos biofilmes. Os resultados indicam que a oleuropeína apresentou potencial para incrementar o efeito bactericida de sanitizantes comerciais para eliminação de biofilmes em superfícies inertes, sendo necessários estudos para compreender os mecanismos de ação dessas combinações.
Resumo:
Transparencias de la sesión 3 sobre sistemas informáticos para la asignatura de Informática Aplicada a las Ciencias Forenses.
Resumo:
El presente proyecto de investigación está interesado en explorar y describir determinadas formas de sociabilidad de varones de clase media auto definidos como homosexuales entre el inicio de la última dictadura (1976) y la formación de un circuito de discos y pubs gays en la ciudad de Córdoba durante el llamado “destape alfonsinista” (1986). La investigación contempla la descripción densa de dos series de prácticas de sociabilidad. Por una parte, se analizará la sociabilidad de varones homosexuales, especialmente de un conjunto de sujetos que desempeñaban determinadas profesiones como “decoradores”, “modistos”, “cocineros”, “anticuarios” y organizadores de fiestas, contratados por las elites locales y clases medias acomodadas para diseñar sus formas de diversión durante el período. ¿Cómo estos sujetos se relacionaban con quienes no forman parte del “ambiente” homosexual y cómo gestionaban el “secreto público” de su identidad erótico-sexual en sus relaciones con las elites cordobesas? El estudio de estas formas de sociabilidad homosexual escasamente trabajadas por la literatura internacional se relacionará con un análisis de las formas de sociabilidad entre varones homosexuales y la formación de un “ambiente”. Para ello se estudiarán espacios colectivos de socialización como baños públicos, plazas, calles, fiestas privadas, bares, boliches y saunas. Los códigos de comunicación verbal y gestual utilizados en esos espacios, y la caracterización de las redes de personas que componían el “ambiente” también serán objeto de análisis. Dado el carácter inicial de esta investigación, ya que no se cuenta con estudios previos para Córdoba, proponemos la siguiente hipótesis de tipo exploratorio en relación a las formas de sociabilidad de determinados varones homosexuales: Estos sujetos habrían asegurado su reproducción social tanto como la posesión de ciertos salvoconductos para el ejercicio de su identidad sociosexual produciendo fiestas de las elites locales. A partir de erigirse en árbitros del “buen gusto” dichos sujetos habrían asegurado ciertos privilegios, entre ellos “feminizar” sus gustos y producirse como “locas”. Dada las nuevas condiciones impuestas por la recuperación democrática, los salvoconductos se hicieron cada vez menos valiosos al mismo tiempo que se formaba una identidad “gay” que, aunque buscó distanciarse del modelo negativo de “la loca”, continuó reclamando su dominio sobre el “buen gusto”. De esta manera, el cultivo experto del “buen gusto” sería parte de las prácticas que organizaban las formas de sociabilidad de varones homosexuales con sujetos heterosexuales de las elites. En relación a las formas de sociabilidad entre homosexuales proponemos que durante la dictadura, “el ambiente” se habría organizado en torno a un circuito callejero y una territorialidad de eventos privados (fiestas negras). Las diferentes performances sociales desarrolladas en tales espacios formaron parte de prácticas que desafiaron el estado de sitio impuesto. Reprimidas por la dictadura, estas prácticas no podían formar parte de un consumo cultural mercantilizado. La recuperación democrática y los cambios en las políticas del Estado con relación a los derechos y los reclamos de las minorías articulados con la expansión de un mercado gay global, habrían producido un cambio en las formas de sociabilidad homosexual. El ejercicio de esta sociabilidad supuso cada vez más el consumo de ciertas mercancías culturales asociadas con “la noche”. Así, la formación de una identidad “gay”, como opuesta al modelo “loca/chongo” dominante hasta los años ´80, aparecería fuertemente relacionada con la formación y segmentarización de un mercado del entretenimiento nocturno. Para la recolección de datos se recurrirá a entrevistas focalizadas e historias de vida de sujetos que trabajaron dando forma a las prácticas de divertimento nocturno de las elites locales y participaron en las redes de personas que componían el “ambiente”.
Resumo:
Em Bioinformática são frequentes problemas cujo tratamento necessita de considerável poder de processamento/cálculo e/ou grande capacidade de armazenamento de dados e elevada largura de banda no acesso aos mesmos (de forma não comprometer a eficiência do seu processamento). Um exemplo deste tipo de problemas é a busca de regiões de similaridade em sequências de amino-ácidos de proteínas, ou em sequências de nucleótidos de DNA, por comparação com uma dada sequência fornecida (query sequence). Neste âmbito, a ferramenta computacional porventura mais conhecida e usada é o BLAST (Basic Local Alignment Search Tool) [1]. Donde, qualquer incremento no desempenho desta ferramenta tem impacto considerável (desde logo positivo) na atividade de quem a utiliza regularmente (seja para investigação, seja para fins comerciais). Precisamente, desde que o BLAST foi inicialmente introduzido, foram surgindo diversas versões, com desempenho melhorado, nomeadamente através da aplicação de técnicas de paralelização às várias fases do algoritmo (e. g., partição e distribuição das bases de dados a pesquisar, segmentação das queries, etc. ), capazes de tirar partido de diferentes ambientes computacionais de execução paralela, como: máquinas multi-core (BLAST+ 2), clusters de nós multi-core (mpiBLAST3J e, mais recentemente, co-processadores aceleradores como GPUs" ou FPGAs. É também possível usar as ferramentas da família BLAST através de um interface/sítio WEB5, que permite, de forma expedita, a pesquisa de uma variedade de bases de dados conhecidas (e em permanente atualização), com tempos de resposta suficientemente pequenos para a maioria dos utilizadores, graças aos recursos computacionais de elevado desempenho que sustentam o seu backend. Ainda assim, esta forma de utilização do BLAST poderá não ser a melhor opção em algumas situações, como por exemplo quando as bases de dados a pesquisar ainda não são de domínio público, ou, sendo-o, não estão disponíveis no referido sitio WEB. Adicionalmente, a utilização do referido sitio como ferramenta de trabalho regular pressupõe a sua disponibilidade permanente (dependente de terceiros) e uma largura de banda de qualidade suficiente, do lado do cliente, para uma interacção eficiente com o mesmo. Por estas razões, poderá ter interesse (ou ser mesmo necessário) implantar uma infra-estrutura BLAST local, capaz de albergar as bases de dados pertinentes e de suportar a sua pesquisa da forma mais eficiente possível, tudo isto levando em conta eventuais constrangimentos financeiros que limitam o tipo de hardware usado na implementação dessa infra-estrutura. Neste contexto, foi realizado um estudo comparativo de diversas versões do BLAST, numa infra-estrutura de computação paralela do IPB, baseada em componentes commodity: um cluster de 8 nós (virtuais, sob VMWare ESXi) de computação (com CPU Í7-4790K 4GHz, 32GB RAM e 128GB SSD) e um nó dotado de uma GPU (CPU Í7-2600 3.8GHz, 32GB RAM, 128 GB SSD, 1 TB HD, NVIDIA GTX 580). Assim, o foco principal incidiu na avaliação do desempenho do BLAST original e do mpiBLAST, dado que são fornecidos de base na distribuição Linux em que assenta o cluster [6]. Complementarmente, avaliou-se também o BLAST+ e o gpuBLAST no nó dotado de GPU. A avaliação contemplou diversas configurações de recursos, incluindo diferentes números de nós utilizados e diferentes plataformas de armazenamento das bases de dados (HD, SSD, NFS). As bases de dados pesquisadas correspondem a um subconjunto representativo das disponíveis no sitio WEB do BLAST, cobrindo uma variedade de dimensões (desde algumas dezenas de MBytes, até à centena de GBytes) e contendo quer sequências de amino-ácidos (env_nr e nr), quer de nucleótidos (drosohp. nt, env_nt, mito. nt, nt e patnt). Para as pesquisas foram 'usadas sequências arbitrárias de 568 letras em formato FASTA, e adoptadas as opções por omissão dos vários aplicativos BLAST. Salvo menção em contrário, os tempos de execução considerados nas comparações e no cálculo de speedups são relativos à primeira execução de uma pesquisa, não sendo assim beneficiados por qualquer efeito de cache; esta opção assume um cenário real em que não é habitual que uma mesma query seja executada várias vezes seguidas (embora possa ser re-executada, mais tarde). As principais conclusões do estudo comparativo realizado foram as seguintes: - e necessário acautelar, à priori, recursos de armazenamento com capacidade suficiente para albergar as bases de dados nas suas várias versões (originais/compactadas, descompactadas e formatadas); no nosso cenário de teste a coexistência de todas estas versões consumiu 600GBytes; - o tempo de preparação (formataçâo) das bases de dados para posterior pesquisa pode ser considerável; no nosso cenário experimental, a formatação das bases de dados mais pesadas (nr, env_nt e nt) demorou entre 30m a 40m (para o BLAST), e entre 45m a 55m (para o mpiBLAST); - embora economicamente mais onerosos, a utilização de discos de estado sólido, em alternativa a discos rígidos tradicionais, permite melhorar o tempo da formatação das bases de dados; no entanto, os benefícios registados (à volta de 9%) ficam bastante aquém do inicialmente esperado; - o tempo de execução do BLAST é fortemente penalizado quando as bases de dados são acedidas através da rede, via NFS; neste caso, nem sequer compensa usar vários cores; quando as bases de dados são locais e estão em SSD, o tempo de execução melhora bastante, em especial com a utilização de vários cores; neste caso, com 4 cores, o speedup chega a atingir 3.5 (sendo o ideal 4) para a pesquisa de BDs de proteínas, mas não passa de 1.8 para a pesquisa de BDs de nucleótidos; - o tempo de execução do mpiBLAST é muito prejudicado quando os fragmentos das bases de dados ainda não se encontram nos nós do cluster, tendo que ser distribuídos previamente à pesquisa propriamente dita; após a distribuição, a repetição das mesmas queries beneficia de speedups de 14 a 70; porém, como a mesma base de dados poderá ser usada para responder a diferentes queries, então não é necessário repetir a mesma query para amortizar o esforço de distribuição; - no cenário de teste, a utilização do mpiBLAST com 32+2 cores, face ao BLAST com 4 cores, traduz-se em speedups que, conforme a base de dados pesquisada (e previamente distribuída), variam entre 2 a 5, valores aquém do máximo teórico de 6.5 (34/4), mas ainda assim demonstradores de que, havendo essa possibilidade, compensa realizar as pesquisas em cluster; explorar vários cores) e com o gpuBLAST, realizada no nó com GPU (representativo de uma workstation típica), permite aferir qual a melhor opção no caso de não serem possíveis pesquisas em cluster; as observações realizadas indicam que não há diferenças significativas entre o BLAST e o BLAST+; adicionalmente, o desempenho do gpuBLAST foi sempre pior (aproximadmente em 50%) que o do BLAST e BLAST+, o que pode encontrar explicação na longevidade do modelo da GPU usada; - finalmente, a comparação da melhor opção no nosso cenário de teste, representada pelo uso do mpiBLAST, com o recurso a pesquisa online, no site do BLAST5, revela que o mpiBLAST apresenta um desempenho bastante competitivo com o BLAST online, chegando a ser claramente superior se se considerarem os tempos do mpiBLAST tirando partido de efeitos de cache; esta assunção acaba por se justa, Já que BLAST online também rentabiliza o mesmo tipo de efeitos; no entanto, com tempos de pequisa tão reduzidos (< 30s), só é defensável a utilização do mpiBLAST numa infra-estrutura local se o objetivo for a pesquisa de Bds não pesquisáveis via BLAS+ online.
Resumo:
O plasma não térmico nos cuidados de saúde é um campo emergente que tem as suas raízes na ciência de plasmas. Este tipo de investigação tem crescido rapidamente e é agora objeto de um amplo esforço de pesquisa interdisciplinar envolvendo a medicina, a biologia, a física, a química e a engenharia. Têm sido feitos vários trabalhos de modo a elucidar quais as interações das espécies produzidas pelo plasma com os sistemas vivos. É evidente que o mecanismo da interação do plasma com os sistemas vivos é complexo, em parte devido à complexidade do plasma mas principalmente devido à enorme complexidade da biologia. O principal objetivo desta dissertação foi observar os efeitos do plasma não térmico à pressão atmosférica (PNTPAs) no desenvolvimento larval e anomalias morfológicas de Drosophila melanogaster. Para o efeito, foram expostas e analisadas fenotipicamente 2.566 larvas após exposição, dos diferentes estádios (1.º, 2.º e 3.º) de desenvolvimento. Os testes foram realizados com aplicações de plasma com e sem ultra violeta, em duas linhas diferentes de Drosophila; uma linha selvagem preparada por nós e uma linha laboratorial. A análise fenotípica revelou que após exposição as larvas apresentavam alterações no fenótipo e no comportamento que não foram observadas no controlo, nomeadamente anomalias nas mudas, traqueias partidas, formação de massas melanóticas que podiam persistir até à fase adulta, excesso de gotículas lipídicas, atraso no desenvolvimento, comportamento de não alimentação e formação de pupa imatura que levava à formação de pupa precoce e morte pupal. Na fase pupal, as anomalias mais comuns estavam relacionadas com a forma do pupário (causadas pela pipação prematura), apresentando um desenvolvimento aberrante. Entre os vários fenótipos observados, o mais significativo foi o criptocefálico (alterações na eversão dos discos imaginais) levando à morte pupal. Nos adultos, as principais anomalias morfológicas foram registadas na formação e segmentação das patas, na forma e padrão das nervuras das asas e na formação do tórax. A similaridade destes resultados com trabalhos publicados relacionados com a hormona esteróide ecdisona indicam que provavelmente o PNTPA poderá ter influenciado a biossíntese e/ou a regulação da ecdisona, a principal hormona que regula o desenvolvimento e a metamorfose em Drosophila.