945 resultados para Total Time
Resumo:
The goal of this paper is twofold. Firstly, to survey in a systematic and uniform way the main results regarding the way membranes can be placed on processors in order to get a software/hardware simulation of P-Systems in a distributed environment. Secondly, we improve some results about the membrane dissolution problem, prove that it is connected, and discuss the possibility of simulating this property in the distributed model. All this yields an improvement in the system parallelism implementation since it gets an increment of the parallelism of the external communication among processors. Also, the number of processors grows in such a way that is notorious the increment of the parallelism in the application of the evolution rules and the internal communica-tionsstudy because it gets an increment of the parallelism in the application of the evolution rules and the internal communications. Proposed ideas improve previous architectures to tackle the communication bottleneck problem, such as reduction of the total time of an evolution step, increase of the number of membranes that could run on a processor and reduction of the number of processors
Resumo:
Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clásica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clásica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biológicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial– del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clúster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clúster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.
Resumo:
En esta Tesis Doctoral se ha estudiado la influencia del cultivar sobre el comportamiento reológico y panadero de cinco cultivares de trigo sembrados en el mismo año y en el mismo ambiente, en condiciones de cultivo ecológico. Tres de ellos eran de trigo panadero (Triticum aestivum ssp. vulgare), ‘Bonpain’, ‘Craklin’ y ‘Sensas’ y los otros dos de trigo espelta (Triticum aestivum ssp. spelta), ‘Espelta Álava’ y ‘Espelta Navarra’. Actualmente, el alohexaploide trigo panadero (2n=6x=42 genomio AABBDD) supone en torno al 90% del trigo cultivado en el mundo. En cambio, el cultivo del trigo alohexaploide espelta (2n=6x=42 genomio AABBDD) se limita a pequeñas regiones de Europa y de América del Norte. En España, el cultivo de trigo espelta se ha mantenido durante años ligado a la región de Asturias, aunque en la actualidad su cultivo está empezando a diversificarse hacia otras regiones. Esto se debe, fundamentalmente, a su potencial nutricional y a su adaptabilidad a condiciones de agricultura sostenible. El reciente resurgimiento de la espelta en productos de panificación, se debe, en gran parte, a la percepción del consumidor de que se trata de un producto ”más saludable” y “más natural” y con menor requerimiento de insumos que los trigos modernos. A medida que el consumo de alimentos a base de harina de espelta aumenta, se plantea la necesidad de evaluar su calidad harino-panadera, nutricional y sensorial en comparación con los productos elaborados con variedades de trigo común. Se caracterizaron las gluteninas de alto peso molecular (HMW) y las puroindolinas de los cinco cultivares. Se evaluó la calidad del grano, la reología de sus masas y se analizó la calidad instrumental y sensorial de sus panes. Para tal fin se ha puesto a punto un protocolo de panificación adecuado a las características particulares de los trigos espelta y se ha propuesto para el análisis sensorial de los panes un protocolo de selección, entrenamiento y validación de jueces. Teniendo en cuenta la composición en gluteninas HMW de los cultivares, se comprobó su influencia en el volumen de sedimentación y en la fuerza panadera. La composición en puroindolinas se vió reflejada en el parámetro dureza del endospermo. Los resultados indicaron que hay diferencias entre trigo panadero y trigo espelta en parámetros como, la tenacidad y el equilibrio de sus masas, la capacidad de absorción de agua de la harina y el comportamiento de la masa durante el amasado. Los trigos espeltas mostraron menor valor en el tiempo en alcanzar la presión máxima y la tolerancia al amasado, mientras que presentaron valores superiores en el decaimiento a los 250 y 450 segundos respectivamente. Respecto a la calidad de los panes elaborados, los trigos espeltas tenían mayor elasticidad en la miga y mayores valores en el área y en el diámetro de sus alveolos. Estas diferencias en la estructura y textura de la miga fueron también detectadas a nivel sensorial por el panel de jueces. Mediante el perfil sensorial descriptivo, se determinó que uno de los dos panes elaborado con trigo espelta (‘Espelta Navarra’) fue el pan más complejo considerando conjuntamente los atributos de aroma y flavor. En este trabajo no se apreciaron diferencias entre ambos tipos de trigo ni en el contenido en proteína, ni en minerales, ni en la viscosidad de su almidón. ABSTRACT In this Doctoral Thesis, the influence of various cultivars on rheological and baking behavior was studied. Five wheat cultivars were used, all planted in the same year and same organic farming environment. Three were bread wheat (Triticum aestivum ssp. vulgare), 'Bonpain', 'Craklin' and 'Sensas' and the other two were spelt wheat (Triticum aestivum ssp. spelta) , 'Espelta Álava' and 'Espelta Navarra' . Currently, the allohexaploid bread wheat (2n=6x=42 genome AABBDD) represents about 90% of global wheat production. On the other hand, allohexaploid spelt wheat (2n=6x=42 genome AABBDD) is merely produced in small areas of Europe and North America. For many years, the cultivation of spelt wheat in Spain was limited to the region of Asturias, although nowadays its production has begun to spread into other regions. This is owing to its nutritional potential and adaptability to conditions of sustainable agriculture. The recent resurgence of spelt in baking products is mainly due to consumers perception of it, as "healthier" and "more natural", and to the fewer agricultural input requirements compared to modern wheat products. As the consumption of foods made from spelt flour increases, there is a need to assess its baking, nutritional and sensory quality, compared to products made with common varieties of wheat. High molecular weight glutenins and puroindolines from the five cultivars were characterized. The quality of the grain and the rheology of the dough were evaluated and the instrumental and sensory quality of its breads were analyzed. To this end it a baking protocol was appropriately developed to the particular characteristics of spelt wheat and a selection protocol was proposed for the sensory analysis of breads, after proper training and validation of judges. Considering the HMW glutenin composition of the cultivars, the influence on the sedimentation volume and the baking strength was proven. The composition of puroindolines was reflected in the endosperm hardness parameter. The results show that there are differences between bread wheat and spelt wheat on parameters such as the tenacity and tenacity/elasticity ratio of their masses, the water absorption capacity of the flour and the behavior of the dough during kneading. The values for total time to reach maximum pressure and tolerance to mixing were lower for spelt wheat, and higher values were found for the drop at 250 s and 450 s. Regarding the quality of manufactured bread, spelt wheat had the greatest elasticity of the crumb and higher values in the area and diameter of the cells. These differences in the structure and texture of the crumb were also noticed at a sensory level by the panel of judges. It was determined by a descriptive sensory profile that one of the two loaves of bread made with spelt ('Espelta Navarra') was the most complex in the sense of its attributes of scents and flavors altogether. In this study, no differences were appreciated between the two types of wheat or the protein composition, or minerals or viscosity of the starch.
Resumo:
O objetivo deste estudo in vivo, internacional, randomizado e duplo cedo foi avaliar comparativamente a efetividade e o pH de diferentes géis clareadores na técnica de clareamento em consultório, com e sem o emprego de fonte de luz híbrida em função do grau de alteração de cor, sensibilidade e manutenção do tratamento ao longo de 12 meses de acompanhamento. Foram selecionados 48 voluntários de acordo com os critérios de inclusão e exclusão. Os pacientes foram divididos, de forma randomizada, em 4 grupos de 12 participantes cada, onde: Grupo EXP10 5 aplicações do gel de peróxido de hidrogênio a 10% (Gel Experimental DMC Equipamentos) e ativação de luz híbrida de LED (violeta)/Laser (Experimental DMC Equipamentos) com 7′ e 30″ por aplicação, com tempo total de 37′30; Grupo LP15 5 aplicações do gel de peróxido de hidrogênio 15% (Lase Peroxide Lite DMC Equipamentos) seguindo mesmo protocolo do grupo EXP10; Grupo TB35LH 3 aplicações do gel de peróxido de hidrogênio a 35% (Total Blanc Office - DFL) e ativação de luz híbrida de LED (azul)/Laser (Whitening Lase II DMC Equipamentos) de 7′ e 30″ por aplicação, com tempo total de 22′30″; Grupo TB35 3 aplicações do gel de peróxido de hidrogênio a 35% (Total Blanc Office - DFL) sem ativação com fonte de luz, totalizando 45″. A determinação dos valores de pH foi realizada com o peagômetro digital (Sentron Model 1001, Sentron) nos tempos inicial e após o término do protocolo clareador. A aferição da cor foi feita com espectofotômetro VITA Easyshade antes do clareamento, após 24 horas, 1 semana, 1, 6 e 12 meses. A sensibilidade dentária e grau de satisfação dos pacientes foram avaliados por meio do questionário VAS e IPS antes, imediatamente após o clareamento, 24 horas e uma semana após. Os resultados da alteração do pH receberam tratamento estatístico pela ANOVA e teste de Bonferroni a 0,05%. Os resultados indicaram que o pH aumentou do momento inicial para o final para todos os protocolos. Não houve diferenças significativas entre os protocolos TB35 e TB35LH em nenhum dos momentos, e o pH médio do grupo EXP10 foi maior em comparação aos outros três grupos nos dois momentos avaliados. Os resultados do ΔE receberam tratamento estatístico pela ANOVA e teste de Bonferroni a 0,05%. Os resultados indicaram que não houve diferença significativa entre os grupos LP15, TB35 e TB35LH. O ΔE médio observado após 24 horas foi estatisticamente maior que para os outros tempos (inicial, 1 semana, 1 mês, 6 e 12 meses). Para análise da sensibilidade foi construído um modelo linear misto e atribuídos postos (ranks) aos valores de Δ e teste de Bonferroni a 0,05% para comparações pareadas. Não houve diferença nos valores da sensibilidade imediatamente e 24 horas após o tratamento, com relação ao momento inicial. Houve diferença significativa entre Δ1 e Δ3 indicando que a sensação de dor após uma semana do tratamento foi menor do que as observadas nos instantes imediato e após 24 horas. Para os resultados de satisfação foi construído um modelo linear misto e atribuídos postos (ranks) e o Método de Bonferroni (0,05%) foi utilizado para as comparações pareadas do efeito de tempo. Os resultados indicam queda nos níveis de satisfação entre os períodos imediato e um ano e entre os períodos 24 horas e um ano. Todos os géis clareadores apresentaram mínima variação do pH nos tempos avaliados, entretanto houve um aumento do pH da primeira para a última aplicação em todos os grupos estudados e o grupo EXP10 apresentou os maiores valores de pH seguido do LP15, TB35LH e TB35 apresentaram os valores mais baixos de pH. Os grupos LP15, TB35 e TB35LH apresentaram menor variação da cor ao longo de 12 meses de acompanhamento. O efeito do protocolo clareador não influenciou a sensibilidade dos pacientes e após uma semana a sensibilidade retornaram aos níveis normais. O nível de satisfação dos pacientes foi significativo em relação ao tempo e não aos protocolos clareadores, os pacientes do grupo TB35 mostraram-se mais insatisfeitos ao longo da pesquisa.
Resumo:
A natação de águas abertas tem registrado aumento no número de competições e participantes em todo mundo. Acompanhando esta tendência têm sido desenvolvidos estudos para identificar as características físicas e as respostas fisiológicas dos atletas neste tipo de prova. Entretanto, são escassos estudos ao nível de análise comportamental, principalmente, em condições reais de distância e meio ambiente (mar). Foi objetivo deste estudo investigar as características de desempenho e da organização temporal das braçadas de nadadores de águas abertas. Mais especificamente, conhecer quais recursos os atletas de águas abertas lançam mão para atingir sua meta de vencer um percurso no mar no menor tempo possível. A amostra foi constituída por 23 atletas, com média de idade de 26,4(±3,2) anos. A tarefa foi nadar um trajeto de 1500 metros em forma de um circuito em mar aberto. Para a captação das variáveis relacionadas ao desempenho utilizou-se um GPS (Garmin modelo Fênix 3) e um cronômetro (FINIS modelo Accusplit Eagle AX602). O registro das imagens para captação dos dados relacionados à descrição da organização temporal das braçadas ocorreu em três pontos do trajeto: início (I) - 20 a 40 metros, meio (M) - 800 a 820 metros e final (F) - 1450 a 1470 metros. Foi utilizada uma filmadora (Nikon Coolpix S5300) afixada à embarcação. O software Kinovea 8.20 permitiu a análise quadro a quadro das braçadas. Foram consideradas variáveis dependentes relacionadas ao desempenho (tempo, velocidade e distância total percorrida, bem como, a frequência de braçadas em cada um dos três pontos do trajeto); aos aspectos variantes das braçadas (tempo total do ciclo, das braçadas, das fases aérea e aquática) e aos aspectos invariantes das braçadas (timing relativo das fases aérea e aquática e sua variabilidade). A análise de variância de medidas repetidas foi usada para comparar os três momentos da tarefa (I, M e F) para todas as variáveis, e a correlação de Pearson para analisar a magnitude das relações entre as variáveis de desempenho, enquanto o teste t de Student para medidas pareadas foi utilizado para comparar as possíveis diferenças entre os braços direito e esquerdo para cada um dos momentos e determinou-se como significância estatística α≤=0,05. Em relação ao desempenho, os resultados indicaram que os nadadores fizeram uso de frequência de braçada (Fb) diferente para os três momentos, sendo maior no I quando comparada ao M e F, e no M, menor que em F; estas mudanças foram acompanhadas por ajustes nos aspectos variantes como o tempo total do ciclo, das braçadas e das fases aérea e aquática. Ainda, nos três momentos os nadadores apresentaram simetria temporal entre as braçadas dos dois braços, apesar de as diferenças serem evidenciadas entre as fases das braçadas quando comparados os braços. Com relação aos aspectos invariantes detectou-se mudança do padrão de I para M e F da tarefa, sendo que em M e F os atletas utilizaram a mesma estrutura temporal. Quanto à variabilidade dos aspectos variantes e invariantes para as braçadas e as fases das braçadas, observou-se diminuição da magnitude ao longo da tarefa sendo que o braço esquerdo apresentou nos três momentos maior variabilidade que o direito. Assim, diante dos resultados, concluiu-se que os recursos utilizados por nadadores habilidosos para nadar em ambiente pouco estável, em condições reais de distância e meio ambiente (mar) compreendem a alteração do desempenho (Fb) associado a ajustes nos aspectos variantes, concomitantemente à alteração dos aspectos invariantes das braçadas, em função do momento da tarefa
Resumo:
Ensaios de distribuição de água de aspersores são convencionalmente realizados manualmente, requerendo tempo e mão de obra treinada. A automação desses ensaios proporciona redução da demanda por esses recursos e apresenta potencial para minimizar falhas e/ou desvios de procedimento. Atualmente, laboratórios de ensaio e calibração acreditados junto a organismos legais devem apresentar em seus relatórios a incerteza de medição de seus instrumentos e sistemas de medição. Além disso, normas de ensaio e calibração apresentam especificação de incerteza aceitável, como a norma de ensaios de distribuição de água por aspersores, ISO 15886-3 (2012), a qual exige uma incerteza expandida de até 3% em 80% dos coletores. Os objetivos deste trabalho foram desenvolver um sistema automatizado para os ensaios de aspersores em laboratório e realizar a análise de incerteza de medição, para sua quantificação nos resultados de ensaio e para dar suporte ao dimensionamento dos tubos de coleta. O sistema automático foi constituído por um subsistema de gerenciamento, por meio de um aplicativo supervisório, um de pressurização e um de coleta, por meio de módulos eletrônicos microprocessados desenvolvidos. De acordo com instruções do sistema de gerenciamento o sistema de pressurização ajustava a pressão no aspersor por meio do controle da rotação da motobomba, e o sistema de coleta realizava a medição da intensidade de precipitação de água ao longo do raio de alcance do aspersor. A água captada por cada coletor drenava para um tubo de coleta, que estava conectado a uma das válvulas solenoides de um conjunto, onde havia um transmissor de pressão. Cada válvula era acionada individualmente numa sequência para a medição do nível de água em cada tubo de coleta, por meio do transmissor. Por meio das análises realizadas, as menores incertezas foram obtidas para os menores diâmetros de tubo de coleta, sendo que se deve utilizar o menor diâmetro possível. Quanto ao tempo de coleta, houve redução da incerteza de medição ao se aumentar a duração, devendo haver um tempo mínimo para se atingir a incerteza-alvo. Apesar de cada intensidade requer um tempo mínimo para garantir a incerteza, a diferença mínima de nível a ser medida foi a mesma. Portanto, para os ensaios visando atender a incerteza, realizou-se o monitoramento da diferença de nível nos tubos, ou diferença de nível, facilitando a realização do ensaio. Outra condição de ensaio considerou um tempo de coleta para 30 voltas do aspersor, também exigido pela norma ISO 15886-3 (2012). A terceira condição considerou 1 h de coleta, como tradicionalmente realizado. As curvas de distribuição de água obtidas por meio do sistema desenvolvido foram semelhantes às obtidas em ensaios convencionais, para as três situações avaliadas. Para tempos de coleta de 1 h ou 30 voltas do aspersor o sistema automático requereu menos tempo total de ensaio que o ensaio convencional. Entretanto, o sistema desenvolvido demandou mais tempo para atingir a incerteza-alvo, o que é uma limitação, mesmo sendo automatizado. De qualquer forma, o sistema necessitava apenas que um técnico informasse os parâmetros de ensaio e o acionasse, possibilitando que o mesmo alocasse seu tempo em outras atividades.
Resumo:
We provide a complete characterization of the astrophysical properties of the σ Ori Aa, Ab, B hierarchical triple system and an improved set of orbital parameters for the highly eccentric σ Ori Aa, Ab spectroscopic binary. We compiled a spectroscopic data set comprising 90 high-resolution spectra covering a total time span of 1963 days. We applied the Lehman-Filhés method for a detailed orbital analysis of the radial velocity curves and performed a combined quantitative spectroscopic analysis of the σ Ori Aa, Ab, B system by means of the stellar atmosphere code FASTWIND. We used our own plus other available information on photometry and distance to the system for measuring the radii, luminosities, and spectroscopic masses of the three components. We also inferred evolutionary masses and stellar ages using the Bayesian code BONNSAI. The orbital analysis of the new radial velocity curves led to a very accurate orbital solution of the σ Ori Aa, Ab pair. We provided indirect arguments indicating that σ Ori B is a fast-rotating early B dwarf. The FASTWIND+BONNSAI analysis showed that the Aa, Ab pair contains the hottest and most massive components of the triple system while σ Ori B is a bit cooler and less massive. The derived stellar ages of the inner pair are intriguingly younger than the one widely accepted for the σ Orionis cluster, at 3 ± 1 Ma. The outcome of this study will be of key importance for a precise determination of the distance to the σ Orionis cluster, the interpretation of the strong X-ray emission detected for σ Ori Aa, Ab, B, and the investigation of the formation and evolution of multiple massive stellar systems and substellar objects.
Resumo:
Physician training has greatly benefitted from insights gained in understanding the manner in which experts search medical images for abnormalities. The aims of this study were to compare the search patterns of 30 fourth-year dental students and 15 certified oral and maxillofacial radiologists (OMRs) over panoramic images and to determine the most robust variables for future studies involving image visualization. Eye tracking was used to capture the eye movement patterns of both subject groups when examining 20 panoramic images classified as normal or abnormal. Abnormal images were further subclassified as having an obvious, intermediate, or subtle abnormality. The images were presented in random order to each participant, and data were collected on duration of the participants’ observations and total distance tracked, time to first eye fixation, and total duration and numbers of fixations on and off the area of interest (AOI). The results showed that the OMRs covered greater distances than the dental students (p<0.001) for normal images. For images of pathosis, the OMRs required less total time (p<0.001), made fewer eye fixations (p<0.01) with fewer saccades (p<0.001) than the students, and required less time before making the first fixation on the AOI (p<0.01). Furthermore, the OMRs covered less distance (p<0.001) than the dental students for obvious pathoses. For investigations of images of pathosis, time to first fixation is a robust parameter in predicting ability. For images with different levels of subtlety of pathoses, the number of fixations, total time spent, and numbers of revisits are important parameters to analyze when comparing observer groups with different levels of experience.
Resumo:
Physician training has greatly benefitted from insights gained in understanding the manner in which experts search medical images for abnormalities. The aims of this study were to compare the search patterns of 30 fourth-year dental students and 15 certified oral and maxillofacial radiologists (OMRs) over panoramic images and to determine the most robust variables for future studies involving image visualization. Eye tracking was used to capture the eye movement patterns of both subject groups when examining 20 panoramic images classified as normal or abnormal. Abnormal images were further subclassified as having an obvious, intermediate, or subtle abnormality. The images were presented in random order to each participant, and data were collected on duration of the participants’ observations and total distance tracked, time to first eye fixation, and total duration and numbers of fixations on and off the area of interest (AOI). The results showed that the OMRs covered greater distances than the dental students (p<0.001) for normal images. For images of pathosis, the OMRs required less total time (p<0.001), made fewer eye fixations (p<0.01) with fewer saccades (p<0.001) than the students, and required less time before making the first fixation on the AOI (p<0.01). Furthermore, the OMRs covered less distance (p<0.001) than the dental students for obvious pathoses. For investigations of images of pathosis, time to first fixation is a robust parameter in predicting ability. For images with different levels of subtlety of pathoses, the number of fixations, total time spent, and numbers of revisits are important parameters to analyze when comparing observer groups with different levels of experience.
Resumo:
This study investigated the influences of various natural and anthropogenic factors on the vigilance and flight behaviour of impalas in the Save Valley Conservancy, Zimbabwe, using multivariate statistical techniques. The factor that most significantly affected the proportions of time that individuals spent being vigilant and their rates of vigilance was the position of a focal animal in the group; impalas on the periphery of a group were more vigilant than central impalas. Both measures of vigilance were also negatively related to group size. Males spent more total time being vigilant but females raised their heads more often. Impalas spent more time being vigilant in the late afternoon than in the early morning, when greater than ten metres from cover, and when predators had been nearby within the previous six hours. Impalas spent more time vigilant at the property where more impalas were hunted, possibly reflecting the differences in the intensity of hunting by humans on the two properties. Flight distances at the approach of humans were significantly greater at one property than the other, and were also greater for small groups. Further research into the effects of hunting by humans on animals' antipredator behaviours would provide valuable insights for wildlife managers.
Resumo:
Purpose. To determine whether Australia's Walk to Work Day media campaign resulted in behavioural change among targeted groups. Methods. Pre- and postcampaign telephone surveys of a cohort of adults aged 18 to 65 years (n = 1100, 55% response rate) were randomly sampled from Australian major melropolitan areas. Tests for dependent samples were applied (McNemax chi(2) or paired t-test). Results. Among participants who did not usually actively commute to work was a significant decrease in car only use an increase in walking combined with public transport. Among those who were employed was a significant increase in total time walking (+16 min/wk; t [780] = 2.04, p < .05) and in other moderate physical activity (+120 min/wk; t [1087] = 4.76, p < .005), resulting in a significant decrease in the proportion who were inactive (chi(2) (1) = 6.1, p < .05). Conclusion. Although nonexperimental, the Walk to Work Day initiative elicited short-term changes in targeted behaviors among target groups. Reinforcement by integrating worksite health promotion strategies may be required for sustained effects.
Resumo:
Third Generation cellular communication systems are expected to support mixed cell architecture in which picocells, microcells and macrocells are used to achieve full coverage and increase the spectral capacity. Supporting higher numbers of mobile terminals and the use of smaller cells will result in an increase in the number of handovers, and consequently an increase in the time delays required to perform these handovers. Higher time delays will generate call interruptions and forced terminations, particularly for time sensitive applications like real-time multimedia and data services. Currently in the Global System for Mobile communications (GSM), the handover procedure is initiated and performed by the fixed part of the Public Land Mobile Network (PLMN). The mobile terminal is only capable of detecting candidate base stations suitable for the handover; it is the role of the network to interrogate a candidate base station for a free channel. Handover signalling is exchanged via the fixed network and the time delay required to perform the handover is greatly affected by the levels of teletraffic handled by the network. In this thesis, a new handover strategy is developed to reduce the total time delay for handovers in a microcellular system. The handover signalling is diverted from the fixed network to the air interface to prevent extra delays due to teletraffic congestion, and to allow the mobile terminal to exchange signalling directly with the candidate base station. The new strategy utilises Packet Reservation Multiple Access (PRMA) technique as a mechanism to transfer the control of the handover procedure from the fixed network to the mobile terminal. Simulation results are presented to show a dramatic reduction in the handover delay as compared to those obtained using fixed channel allocation and dynamic channel allocation schemes.
Resumo:
The total time a customer spends in the business process system, called the customer cycle-time, is a major contributor to overall customer satisfaction. Business process analysts and designers are frequently asked to design process solutions with optimal performance. Simulation models have been very popular to quantitatively evaluate the business processes; however, simulation is time-consuming and it also requires extensive modeling experiences to develop simulation models. Moreover, simulation models neither provide recommendations nor yield optimal solutions for business process design. A queueing network model is a good analytical approach toward business process analysis and design, and can provide a useful abstraction of a business process. However, the existing queueing network models were developed based on telephone systems or applied to manufacturing processes in which machine servers dominate the system. In a business process, the servers are usually people. The characteristics of human servers should be taken into account by the queueing model, i.e. specialization and coordination. ^ The research described in this dissertation develops an open queueing network model to do a quick analysis of business processes. Additionally, optimization models are developed to provide optimal business process designs. The queueing network model extends and improves upon existing multi-class open-queueing network models (MOQN) so that the customer flow in the human-server oriented processes can be modeled. The optimization models help business process designers to find the optimal design of a business process with consideration of specialization and coordination. ^ The main findings of the research are, first, parallelization can reduce the cycle-time for those customer classes that require more than one parallel activity; however, the coordination time due to the parallelization overwhelms the savings from parallelization under the high utilization servers since the waiting time significantly increases, thus the cycle-time increases. Third, the level of industrial technology employed by a company and coordination time to mange the tasks have strongest impact on the business process design; as the level of industrial technology employed by the company is high; more division is required to improve the cycle-time; as the coordination time required is high; consolidation is required to improve the cycle-time. ^