881 resultados para Compressed workweek.
Resumo:
As instalações de ar comprimido são uma constante em quase todo o tipo de indústria, já que o ar comprimido assume cada vez mais importância como fonte de energia para a movimentação de dispositivos com cargas moderadas ou médias. O uso cada vez mais frequente da pneumática por via da automação de sistemas e processos de fabrico, é outro fator que tem incrementado fortemente o uso de instalações de ar comprimido. A utilização de ar comprimido tem subjacente um ou mais compressores, responsáveis por captar o ar e criar as condições necessárias de pressão na rede que vai abastecer uma qualquer instalação industrial, ou mesmo comercial, como no caso dos serviços de reparação automóvel, entre outras. Desta forma, cria-se uma forte dependência em torno desta fonte de energia, sendo a avaria do compressor um fator extremamente limitativo do processo produtivo ou dos serviços a prestar. As empresas fabricantes de compressores, cientes deste facto, têm primado pela fiabilidade. No entanto, os utilizadores nem sempre criam as condições ideais para o funcionamento desses compressores, conduzindo a problemas de funcionamento. Neste trabalho pretendeu-se elaborar um estudo que permitisse identificar quais as causas que estão por detrás das avarias mais frequentes de alguns dos modelos mais vendidos pela Ingersoll-Rand no nosso país, através da Comingersoll, analisando as mesmas e tentando encontrar soluções que evitassem essas avarias. O estudo permitiu dissecar as avarias registadas em cinco diferentes modelos nos últimos anos, identificar possíveis causas, perceber a frequência com que ocorrem e sugerir melhorias que pudessem minimizar a ocorrência dessas mesmas avarias.
Resumo:
A presente dissertação realizada na empresa Continental-Indústria Têxtil do Ave, S.A., teve como objetivo a otimização energética da secção das malhas. Esta secção divide-se em duas áreas, a tricotagem e a ramulagem. Os artigos produzidos diferem no seu peso específico, composição e condições de operação, sendo os artigos A, B e C compostos por poliéster e termofixados a 190ºC e os artigos D e E compostos por poliéster e algodão, com uma temperatura de operação de 205ºC. Numa primeira etapa estudou-se o funcionamento da máquina de termofixação – a râmula – que opera em trabalho contínuo a 40 m/min. Esta máquina tem incorporado um permutador de calor, que aquece o ar fresco de entrada com os gases de exaustão das estufas. Posteriormente efetuou-se o levantamento energético de cada artigo, para as áreas de tricotagem e ramulagem. Verificou-se que os artigos D e E, pela sua constituição, são os que apresentam um consumo específico superior, em tep/ton. Entre as várias utilidades consumidas (gás natural, eletricidade e ar comprimido) o gás natural representa mais de 50% do consumo de energia total necessário para a produção de cada artigo. Após a completa análise aos consumos energéticos da râmula, foram realizados ensaios de otimização, tendo-se concluído que a diminuição do caudal de exaustão pode atingir valores de poupança anual de gás natural na ordem dos 3.000 €. Com o objetivo de avaliar o consumo de gás natural, não sendo possível a realização experimental, foram feitas simulações com base em alterações na corrente de entrada de ar fresco no permutador. Foi também estudada a possibilidade de isolamento e revestimento térmico da conduta exterior, projetada para o reaproveitamento do ar dos compressores, tendo-se obtido um orçamento de 2.500 €. Admitindo-se uma gama de temperaturas entre os 40ºC e os 60ºC, com um caudal de insuflação de 30%, obteve-se um payback entre os 0,97 e os 3,28 anos. Numa segunda fase admitiu-se uma temperatura média de 50ºC, aumentando o caudal de insuflação até 100%. O período de retorno obtido variou entre os 0,33 e os 1,38 anos, podendo as poupanças anuais atingirem os 7.600 €.
American Society of Anesthesiologists Score: Still Useful After 60 Years? Results of the EuSOS Study
Resumo:
OBJECTIVE: The European Surgical Outcomes Study described mortality following in-patient surgery. Several factors were identified that were able to predict poor outcomes in a multivariate analysis. These included age, procedure urgency, severity and type and the American Association of Anaesthesia score. This study describes in greater detail the relationship between the American Association of Anaesthesia score and postoperative mortality. METHODS: Patients in this 7-day cohort study were enrolled in April 2011. Consecutive patients aged 16 years and older undergoing inpatient non-cardiac surgery with a recorded American Association of Anaesthesia score in 498 hospitals across 28 European nations were included and followed up for a maximum of 60 days. The primary endpoint was in-hospital mortality. Decision tree analysis with the CHAID (SPSS) system was used to delineate nodes associated with mortality. RESULTS: The study enrolled 46,539 patients. Due to missing values, 873 patients were excluded, resulting in the analysis of 45,666 patients. Increasing American Association of Anaesthesia scores were associated with increased admission rates to intensive care and higher mortality rates. Despite a progressive relationship with mortality, discrimination was poor, with an area under the ROC curve of 0.658 (95% CI 0.642 - 0.6775). Using regression trees (CHAID), we identified four discrete American Association of Anaesthesia nodes associated with mortality, with American Association of Anaesthesia 1 and American Association of Anaesthesia 2 compressed into the same node. CONCLUSION: The American Association of Anaesthesia score can be used to determine higher risk groups of surgical patients, but clinicians cannot use the score to discriminate between grades 1 and 2. Overall, the discriminatory power of the model was less than acceptable for widespread use.
Resumo:
As a result of the current changes taking place in the delivery of acute care services, the emergence of acute ambulatory care (AAC) settings is expanding. According to a literature review, the volume, acuity, and complexity of patient care in these settings is increasing while the time the patients spend under the care of nurses is decreasing. Two forces, hospital downsizing and advancing technology, are identified as the major contributors to the shift in acute care delivery. The effects that these changes are having on the clinical nursing practice of registered nurses working in AAC settings are not known. Given that AAC settings are rapidly expanding, it can be anticipated that the delivery of nursing care will continue to be compressed into a shorter time frame. Therefore, the following qualitative research question was formulated: What are the problems and issues related to clinical nursing practice in acute ambulatory settings? The purpose of this study was to explore the problems and issues associated with change and clinical nursing practice including the educational needs of nurses working in MC settings. Specific objectives of the study included the following: (a) to explore the problems and issues related to nursing practice in select AAC settings; (b) to explore the similarities and differences in perspectives related to role expectation between nurse managers, nurse educators, and staff nurses; and (c) to develop a conceptual framework that will guide the construction of an instrument needed for further research. This study used semistructured individual interviews and focus group sessions to collect data from the three categories of registered nurses. More specifically, data were collected from one nurse manager, two charge nurses, two nurse educators and fifteen staff nurses, working in three different MC settings of a major teaching hospital. Collected data were separately analyzed by the researcher and an external rater following grounded theory methodology. By using open and axial coding, the problems and issues identified by nurses were grouped into several major and minor themes. In final analysis, by using selective coding, the four core themes (intensification, moderation, frustration, and adaptation) were extracted. Each core theme was presented and discussed in relation to hospital downsizing and advancing technology. The relationships among the four core themes were discussed and depicted in a model termed the "Impact and Consequence Model on Nursing Practice in MC Settings." Implications for further research are discussed and research hypotheses, based on the research findings, are presented.
Resumo:
Previous studies have shown that adults and 8-year-olds process faces using norm-based coding and that prolonged exposure to one kind of facial distortion (e.g., compressed features) temporarily shifts the prototype, a process called adaptation, making similarly distorted faces appear more attractive (Anzures et aI., 2009; Valentine, 1999; Webster & MacLin, 1999). Aftereffects provide evidence that our prototype is continually updated by experience. When adults are adapted to two face categories (e.g., Caucasian and Chinese; male and female) distorted in opposing directions (e.g., expanded vs. compressed), their attractiveness ratings shift in opposite directions (Bestelmeyer et aI., 2008; Jaquet et aI., 2007), indicating that adults have dissociable prototypes for some face categories. I created a novel meth04 to investigate whether children show opposing aftereffects. Children and adults were adapted to Caucasian and Chinese faces distorted in opposite directions in the context of a computerized storybook. When testing adults to validate my method, I discovered that opposing aftereffects are contingent on how participants categorize faces and that this categorization is dependent on the context in which adapting stimuli are presented. Opposing aftereffects for Caucasian and Chinese faces were evident when the salience of race was exaggerated by presenting faces in the context of racially segregated birthday parties; expanded faces selected as most normal more often for the race of face that was expanded during adaptation than for the race of face that was compressed. However, opposing aftereffects were not evident when members of the two groups were presented engaging in cooperative social interactions at a racially integrated birthday party. Using the storybook that emphasized face race I 11 provide the first evidence that 8-year-olds demonstrate opposing aftereffects for two face categories defined by race, both when judging face normality and when rating attractiveness.
Resumo:
The present set of experiments was designed to investigate the organization and refmement of young children's face space. Past research has demonstrated that adults encode individual faces in reference to a distinct face prototype that represents the average of all faces ever encountered. The prototype is not a static abstracted norm but rather a malleable face average that is continuously updated by experience (Valentine, 1991); for example, following prolonged viewing of faces with compressed features (a technique referred to as adaptation), adults rate similarly distorted faces as more normal and more attractive (simple attractiveness aftereffects). Recent studies have shown that adults possess category-specific face prototypes (e.g., based on race, sex). After viewing faces from two categories (e.g., Caucasian/Chinese) that are distorted in opposite directions, adults' attractiveness ratings simultaneously shift in opposite directions (opposing aftereffects). The current series of studies used a child-friendly method to examine whether, like adults, 5- and 8-year-old children show evidence for category-contingent opposing aftereffects. Participants were shown a computerized storybook in which Caucasian and Chinese children's faces were distorted in opposite directions (expanded and compressed). Both before and after adaptation (i.e., reading the storybook), participants judged the normality/attractiveness of a small number of expanded, compressed, and undistorted Caucasian and Chinese faces. The method was first validated by testing adults (Experiment I ) and was then refined in order to test 8- (Experiment 2) and 5-yearold (Experiment 4a) children. Five-year-olds (our youngest age group) were also tested in a simple aftereffects paradigm (Experiment 3) and with male and female faces distorted in opposite directions (Experiment 4b). The current research is the first to demonstrate evidence for simple attractiveness aftereffects in children as young as 5, thereby indicating that similar to adults, 5-year-olds utilize norm-based coding. Furthermore, this research provides evidence for racecontingent opposing aftereffects in both 5- and 8-year-olds; however, the opposing aftereffects demonstrated by 5-year-olds were driven largely by simple aftereffects for Caucasian faces. The lack of simple aftereffects for Chinese faces in 5-year-olds may be reflective of young children's limited experience with other-race faces and suggests that children's face space undergoes a period of increasing differentiation over time with respect to race. Lastly, we found no evidence for sex -contingent opposing aftereffects in 5-year-olds, which suggests that young children do not rely on a fully adult-like face space even for highly salient face categories (i.e., male/female) with which they have comparable levels of experience.
Resumo:
This thesis examines salary structure types (hierarchical or compressed) as predictors of team performance in the National Hockey League (NHL). Additionally, an analysis of goalie statistics is completed in order to determine what, if any, performance measures relate to salary. Data in this research were collected from the 2005-06 season up to the 2010-11 season. Salary inequality/equality (Gini coefficient) was used in a regression analysis to determine if it was an effective predictor of team performance (n = 178) (winning percentage). The results indicated that a hierarchical salary structure increased team performance, although the amount of variability explained was very small. Another regression analysis was completed to determine if any goalie performance measures (n = 245) were effective predictors of individual salary. A regression analysis was employed and indicated that goalie performance measures predicted 19.8% of variance to salary. The only statistical significant variable was games played.
Resumo:
Nous investiguons dans ce travail la création d'échantillons permettant l'étude du comportement des polaritons excitoniques dans les matériaux semi-conducteurs organiques. Le couplage fort entre les états excités d'électrons et des photons impose la création de nouveaux états propres dans le milieu. Ces nouveaux états, les polaritons, ont un comportement bosonique et sont donc capables de se condenser dans un état fortement dégénéré. Une occupation massive de l'état fondamental permet l'étude de comportements explicables uniquement par la mécanique quantique. La démonstration, au niveau macroscopique, d'effets quantiques promet d'éclairer notre compréhension de la matière condensée. De plus, la forte localisation des excitons dans les milieux organiques permet la condensation des polaritons excitoniques organiques à des températures beaucoup plus hautes que dans les semi-conducteurs inorganiques. À terme, les échantillons proposés dans ce travail pourraient donc servir à observer une phase cohérente macroscopique à des températures facilement atteignables en laboratoire. Les cavités proposées sont des résonateurs Fabry-Perot ultraminces dans lesquels est inséré un cristal unique d'anthracène. Des miroirs diélectriques sont fabriqués par une compagnie externe. Une couche d'or de 60 nanomètres est ensuite déposée sur leur surface. Les miroirs sont ensuite mis en contact, or contre or, et compressés par 2,6 tonnes de pression. Cette pression soude la cavité et laisse des espaces vides entre les lignes d'or. Une molécule organique, l'anthracène, est ensuite insérée par capillarité dans la cavité et y est cristallisée par la suite. Dans leur état actuel, les cavités présentent des défauts majeurs quant à la planarité des miroirs et à l'uniformité des cristaux. Un protocole détaillé est présenté et commenté dans ce travail. Nous y proposons aussi quelques pistes pour régler les problèmes courants de l'appareil.
Resumo:
En raison de leur petite taille, les nanoparticules (NP) (< 100 nm) peuvent coaguler très rapidement ce qui favorise leur pénétration dans l’organisme sous forme d’agglomérats. L’objectif de cette recherche est d’étudier l’influence de l’état d’agglomération de NP de dioxyde de titane (TiO2) de trois tailles de départ différentes, 5, 10-30 ou 50 nm sur la toxicité pulmonaire chez le rat mâle (F344) exposé à des aérosols de 2, 7 ou 20 mg/m3 pendant 6 heures. Dans une chambre d’inhalation, six groupes de rats (n = 6 par groupe) ont été exposés par inhalation aiguë nez-seulement à des aérosols ayant une taille primaire de 5 nm, mais produits sous forme faiblement (< 100 nm) ou fortement (> 100 nm) agglomérée à 2, 7 et 20 mg/m3. De façon similaire, quatre autres groupes de rats ont été exposés à 20 mg/m3 à des aérosols ayant une taille primaire de 10-30 et 50 nm. Les différents aérosols ont été générés par nébulisation à partir de suspensions ou par dispersion à sec. Pour chaque concentration massique, un groupe de rats témoins (n = 6 par groupe) a été exposé à de l’air comprimé dans les mêmes conditions. Les animaux ont été sacrifiés 16 heures après la fin de l’exposition et les lavages broncho-alvéolaires ont permis de doser des marqueurs d’effets inflammatoires, cytotoxiques et de stress oxydant. Des coupes histologiques de poumons ont également été analysées. L’influence de l’état d’agglomération des NP de TiO2 n’a pu être discriminée à 2 mg/m3. Aux concentrations massiques de 7 et 20 mg/m3, nos résultats montrent qu’une réponse inflammatoire aiguë est induite suite à l'exposition aux aérosols fortement agglomérés. En plus de cette réponse, l’exposition aux aérosols faiblement agglomérés à 20 mg/m3 s’est traduite par une augmentation significative de la 8-isoprostane et de la lactate déshydrogénase. À 20 mg/m3, les effets cytotoxiques étaient plus importants suite à l’exposition aux NP de 5 nm faiblement agglomérées. Ces travaux ont montré dans l'ensemble que différents mécanismes de toxicité pulmonaire peuvent être empruntés par les NP de TiO2 en fonction de la taille de départ et de l’état d’agglomération.
Resumo:
Les amidons non modifiées et modifiés représentent un groupe d’excipients biodégradables et abondants particulièrement intéressant. Ils ont été largement utilisés en tant qu’excipients à des fins diverses dans des formulations de comprimés, tels que liants et/ou agents de délitement. Le carboxyméthylamidon sodique à haute teneur en amylose atomisé (SD HASCA) a été récemment proposé comme un excipient hydrophile à libération prolongée innovant dans les formes posologiques orales solides. Le carboxyméthylamidon sodique à haute teneur en amylose amorphe (HASCA) a d'abord été produit par l'éthérification de l'amidon de maïs à haute teneur en amylose avec le chloroacétate. HASCA a été par la suite séché par atomisation pour obtenir le SD HASCA. Ce nouvel excipient a montré des propriétés présentant certains avantages dans la production de formes galéniques à libération prolongée. Les comprimés matriciels produits à partir de SD HASCA sont peu coûteux, simples à formuler et faciles à produire par compression directe. Le principal objectif de cette recherche était de poursuivre le développement et l'optimisation des comprimés matriciels utilisant SD HASCA comme excipient pour des formulations orales à libération prolongée. A cet effet, des tests de dissolution simulant les conditions physiologiques du tractus gastro-intestinal les plus pertinentes, en tenant compte de la nature du polymère à l’étude, ont été utilisés pour évaluer les caractéristiques à libération prolongée et démontrer la performance des formulations SD HASCA. Une étude clinique exploratoire a également été réalisée pour évaluer les propriétés de libération prolongée de cette nouvelle forme galénique dans le tractus gastro-intestinal. Le premier article présenté dans cette thèse a évalué les propriétés de libération prolongée et l'intégrité physique de formulations contenant un mélange comprimé de principe actif, de chlorure de sodium et de SD HASCA, dans des milieux de dissolution biologiquement pertinentes. L'influence de différentes valeurs de pH acide et de temps de séjour dans le milieu acide a été étudiée. Le profil de libération prolongée du principe actif à partir d'une formulation de SD HASCA optimisée n'a pas été significativement affecté ni par la valeur de pH acide ni par le temps de séjour dans le milieu acide. Ces résultats suggèrent une influence limitée de la variabilité intra et interindividuelle du pH gastrique sur la cinétique de libération à partir de matrices de SD HASCA. De plus, la formulation optimisée a gardé son intégrité pendant toute la durée des tests de dissolution. L’étude in vivo exploratoire a démontré une absorption prolongée du principe actif après administration orale des comprimés matriciels de SD HASCA et a montré que les comprimés ne se sont pas désintégrés en passant par l'estomac et qu’ils ont résisté à l’hydrolyse par les α-amylases dans l'intestin. Le deuxième article présente le développement de comprimés SD HASCA pour une administration orale une fois par jour et deux fois par jour contenant du chlorhydrate de tramadol (100 mg et 200 mg). Ces formulations à libération prolongée ont présenté des valeurs de dureté élevées sans nécessiter l'ajout de liants, ce qui facilite la production et la manipulation des comprimés au niveau industriel. La force de compression appliquée pour produire les comprimés n'a pas d'incidence significative sur les profils de libération du principe actif. Le temps de libération totale à partir de comprimés SD HASCA a augmenté de manière significative avec le poids du comprimé et peut, de ce fait, être utilisé pour moduler le temps de libération à partir de ces formulations. Lorsque les comprimés ont été exposés à un gradient de pH et à un milieu à 40% d'éthanol, un gel très rigide s’est formé progressivement sur leur surface amenant à la libération prolongée du principe actif. Ces propriétés ont indiqué que SD HASCA est un excipient robuste pour la production de formes galéniques orales à libération prolongée, pouvant réduire la probabilité d’une libération massive de principe actif et, en conséquence, des effets secondaires, même dans le cas de co-administration avec une forte dose d'alcool. Le troisième article a étudié l'effet de α-amylase sur la libération de principe actif à partir de comprimés SD HASCA contenant de l’acétaminophène et du chlorhydrate de tramadol qui ont été développés dans les premières étapes de cette recherche (Acetaminophen SR et Tramadol SR). La modélisation mathématique a montré qu'une augmentation de la concentration d’α-amylase a entraîné une augmentation de l'érosion de polymère par rapport à la diffusion de principe actif comme étant le principal mécanisme contrôlant la libération de principe actif, pour les deux formulations et les deux temps de résidence en milieu acide. Cependant, même si le mécanisme de libération peut être affecté, des concentrations d’α-amylase allant de 0 UI/L à 20000 UI/L n'ont pas eu d'incidence significative sur les profils de libération prolongée à partir de comprimés SD HASCA, indépendamment de la durée de séjour en milieu acide, le principe actif utilisé, la teneur en polymère et la différente composition de chaque formulation. Le travail présenté dans cette thèse démontre clairement l'utilité de SD HASCA en tant qu'un excipient à libération prolongée efficace.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
The thesis introduced the octree and addressed the complete nature of problems encountered, while building and imaging system based on octrees. An efficient Bottom-up recursive algorithm and its iterative counterpart for the raster to octree conversion of CAT scan slices, to improve the speed of generating the octree from the slices, the possibility of utilizing the inherent parallesism in the conversion programme is explored in this thesis. The octree node, which stores the volume information in cube often stores the average density information could lead to “patchy”distribution of density during the image reconstruction. In an attempt to alleviate this problem and explored the possibility of using VQ to represent the imformation contained within a cube. Considering the ease of accommodating the process of compressing the information during the generation of octrees from CAT scan slices, proposed use of wavelet transforms to generate the compressed information in a cube. The modified algorithm for generating octrees from the slices is shown to accommodate the eavelet compression easily. Rendering the stored information in the form of octree is a complex task, necessarily because of the requirement to display the volumetric information. The reys traced from each cube in the octree, sum up the density en-route, accounting for the opacities and transparencies produced due to variations in density.
Resumo:
A study has been carried out to understand the influence of ambient gases on the dynamics of laser-blow-off plumes of multi-layered LiF–C thin film. Plume images at various time intervals ranging from 100 to 3000 ns have been recorded using an intensified CCD camera. Enhancement in the plume intensity and change in size and shape occurs on introducing ambient gases and these changes are highly dependent on the nature and composition of the ambient gas used. Velocity of the plume was found to be higher in helium ambient whereas intensity enhancement is greater in argon environment. The plume shapes have maximum size at 10−2 and 10−1 Torr of Ar and He pressures, respectively. As the background pressure increases further (>10−2 Torr: depending on the nature of gas), the plume gets compressed/focused in the lateral direction. Internal structure formation and turbulences are observed at higher pressures (>10−1 Torr) in both ambient gases.
Resumo:
The formation of coherently strained three-dimensional (3D) islands on top of the wetting layer in the Stranski-Krastanov mode of growth is considered in a model in 1 + 1 dimensions accounting for the anharmonicity and nonconvexity of the real interatomic forces. It is shown that coherent 3D islands can be expected to form in compressed rather than expanded overlayers beyond a critical lattice misfit. In expanded overlayers the classical Stranski-Krastanov growth is expected to occur because the misfit dislocations can become energetically favored at smaller island sizes. The thermodynamic reason for coherent 3D islanding is incomplete wetting owing to the weaker adhesion of the edge atoms. Monolayer height islands with a critical size appear as necessary precursors of the 3D islands. This explains the experimentally observed narrow size distribution of the 3D islands. The 2D-3D transformation takes place by consecutive rearrangements of mono- to bilayer, bi- to trilayer islands, etc., after the corresponding critical sizes have been exceeded. The rearrangements are initiated by nucleation events, each one needing to overcome a lower energetic barrier than the one before. The model is in good qualitative agreement with available experimental observations.
Resumo:
Detection of Objects in Video is a highly demanding area of research. The Background Subtraction Algorithms can yield better results in Foreground Object Detection. This work presents a Hybrid CodeBook based Background Subtraction to extract the foreground ROI from the background. Codebooks are used to store compressed information by demanding lesser memory usage and high speedy processing. This Hybrid method which uses Block-Based and Pixel-Based Codebooks provide efficient detection results; the high speed processing capability of block based background subtraction as well as high Precision Rate of pixel based background subtraction are exploited to yield an efficient Background Subtraction System. The Block stage produces a coarse foreground area, which is then refined by the Pixel stage. The system’s performance is evaluated with different block sizes and with different block descriptors like 2D-DCT, FFT etc. The Experimental analysis based on statistical measurements yields precision, recall, similarity and F measure of the hybrid system as 88.74%, 91.09%, 81.66% and 89.90% respectively, and thus proves the efficiency of the novel system.