955 resultados para Lie detectors and detection
Resumo:
Purpose
The objective of our study was to test a new approach to approximating organ dose by using the effective energy of the combined 80kV/140kV beam used in fast kV switch dual-energy (DE) computed tomography (CT). The two primary focuses of the study were to first validate experimentally the dose equivalency between MOSFET and ion chamber (as a gold standard) in a fast kV switch DE environment, and secondly to estimate effective dose (ED) of DECT scans using MOSFET detectors and an anthropomorphic phantom.
Materials and Methods
A GE Discovery 750 CT scanner was employed using a fast-kV switch abdomen/pelvis protocol alternating between 80 kV and 140 kV. The specific aims of our study were to (1) Characterize the effective energy of the dual energy environment; (2) Estimate the f-factor for soft tissue; (3) Calibrate the MOSFET detectors using a beam with effective energy equal to the combined DE environment; (4) Validate our calibration by using MOSFET detectors and ion chamber to measure dose at the center of a CTDI body phantom; (5) Measure ED for an abdomen/pelvis scan using an anthropomorphic phantom and applying ICRP 103 tissue weighting factors; and (6) Estimate ED using AAPM Dose Length Product (DLP) method. The effective energy of the combined beam was calculated by measuring dose with an ion chamber under varying thicknesses of aluminum to determine half-value layer (HVL).
Results
The effective energy of the combined dual-energy beams was found to be 42.8 kV. After calibration, tissue dose in the center of the CTDI body phantom was measured at 1.71 ± 0.01 cGy using an ion chamber, and 1.73±0.04 and 1.69±0.09 using two separate MOSFET detectors. This result showed a -0.93% and 1.40 % difference, respectively, between ion chamber and MOSFET. ED from the dual-energy scan was calculated as 16.49 ± 0.04 mSv by the MOSFET method and 14.62 mSv by the DLP method.
Resumo:
This thesis explores methods for fabrication of nanohole arrays, and their integration into a benchtop system for use as sensors or anti-counterfeit labels. Chapter 1 gives an introduction to plasmonics and more specifically nanohole arrays and how they have potential as label free sensors compared to the current biosensors on the market. Various fabrication methods are explored, including Focused Ion Beam, Electron Beam Lithography, Nanoimprint lithography, Template stripping and Phase Shift Lithography. Focused Ion Beam was chosen to fabricate the nanohole arrays due to its suitability for rapid prototyping and it’s relatively low cost. In chapter 2 the fabrication of nanohole arrays using FIB is described, and the samples characterised. The fabricated nanohole arrays are tested as bulk refractive index sensors, before a bioassay using whole molecule human IgG antibodies and antigen is developed and performed on the senor. In chapter 3 the fabricated sensors are integrated into a custom built system, capable of real time, multiplexed detection of biomolecules. Here, scFv antibodies of two biomolecules relevant to the detection of pancreatic cancer (C1q and C3) are attached to the nanohole arrays, and detection of their complementary proteins is demonstrated both in buffer (10 nM detection of C1q Ag) and human serum. Chapter 4 explores arrays of anisotropic (elliptical) nanoholes and shows how the shape anisotropy induces polarisation sensitive transmission spectra, in both simulations and fabricated arrays. The potential use of such samples as visible and NIR tag for anti-counterfeiting applications is demonstrated. Finally, chapter 5 gives a summary of the work completed and discusses potential future work in this area.
Resumo:
Anthropogenic climate change is causing unprecedented rapid responses in marine communities, with species across many different taxonomic groups showing faster shifts in biogeographic ranges than in any other ecosystem. Spatial and temporal trends for many marine species are difficult to quantify, however, due to the lack of long-term datasets across complete geographical distributions and the occurrence of small-scale variability from both natural and anthropogenic drivers. Understanding these changes requires a multidisciplinary approach to bring together patterns identified within long-term datasets and the processes driving those patterns using biologically relevant mechanistic information to accurately attribute cause and effect. This must include likely future biological responses, and detection of the underlying mechanisms in order to scale up from the organismal level to determine how communities and ecosystems are likely to respond across a range of future climate change scenarios. Using this multidisciplinary approach will improve the use of robust science to inform the development of fit-for-purpose policy to effectively manage marine environments in this rapidly changing world.
Resumo:
Anthropogenic climate change is causing unprecedented rapid responses in marine communities, with species across many different taxonomic groups showing faster shifts in biogeographic ranges than in any other ecosystem. Spatial and temporal trends for many marine species are difficult to quantify, however, due to the lack of long-term datasets across complete geographical distributions and the occurrence of small-scale variability from both natural and anthropogenic drivers. Understanding these changes requires a multidisciplinary approach to bring together patterns identified within long-term datasets and the processes driving those patterns using biologically relevant mechanistic information to accurately attribute cause and effect. This must include likely future biological responses, and detection of the underlying mechanisms in order to scale up from the organismal level to determine how communities and ecosystems are likely to respond across a range of future climate change scenarios. Using this multidisciplinary approach will improve the use of robust science to inform the development of fit-for-purpose policy to effectively manage marine environments in this rapidly changing world.
Resumo:
El artículo pretende ofrecer una introducción explicativa sobre la tipología de relaciones posibles en el ámbito criminal organizado, los modelos de organización y su movilidad geográfica, a través de la conjunción de las disciplinas de la criminología, la geopolítica y la inteligencia criminal. El estudio persigue un doble objetivo: por un lado, aportar una reflexión que favorezca la apertura de líneas de investigación sobre la diversidad morfológica de las organizaciones criminales, las alianzas forjadas entre ellas, así como su expansión territorial, por otro, maximizar el conocimiento obtenido para apoyar la adopción de decisiones estratégicas, de políticas públicas y la detección de vulnerabilidades explotables para el desarrollo de estrategias de intervención.
Resumo:
The most established route to create a laser-based neutron source is by employing laser accelerated, low atomic-number ions in fusion reactions. In addition to the high reaction cross-sections at moderate energies of the projectile ions, the anisotropy in neutron emission is another important feature of beam-fusion reactions. Using a simple numerical model based on neutron generation in a pitcher–catcher scenario, anisotropy in neutron emission was studied for the deuterium–deuterium fusion reaction. Simulation results are consistent with the narrow-divergence ( ∼ 70 ° full width at half maximum) neutron beam recently served in an experiment employing multi-MeV deuteron beams of narrow divergence (up to 30° FWHM, depending on the ion energy) accelerated by a sub-petawatt laser pulse from thin deuterated plastic foils via the Target Normal Sheath Acceleration mechanism. By varying the input ion beam parameters, simulations show that a further improvement in the neutron beam directionality (i.e. reduction in the beam divergence) can be obtained by increasing the projectile ion beam temperature and cut-off energy, as expected from interactions employing higher power lasers at upcoming facilities.
Resumo:
Android is becoming ubiquitous and currently has the largest share of the mobile OS market with billions of application downloads from the official app market. It has also become the platform most targeted by mobile malware that are becoming more sophisticated to evade state-of-the-art detection approaches. Many Android malware families employ obfuscation techniques in order to avoid detection and this may defeat static analysis based approaches. Dynamic analysis on the other hand may be used to overcome this limitation. Hence in this paper we propose DynaLog, a dynamic analysis based framework for characterizing Android applications. The framework provides the capability to analyse the behaviour of applications based on an extensive number of dynamic features. It provides an automated platform for mass analysis and characterization of apps that is useful for quickly identifying and isolating malicious applications. The DynaLog framework leverages existing open source tools to extract and log high level behaviours, API calls, and critical events that can be used to explore the characteristics of an application, thus providing an extensible dynamic analysis platform for detecting Android malware. DynaLog is evaluated using real malware samples and clean applications demonstrating its capabilities for effective analysis and detection of malicious applications.
Resumo:
A Sociedade da Água de Luso, S.A., localizada no concelho de Mealhada, é uma empresa do setor do engarrafamento de águas minerais naturais, de nascente e de consumo humano. Esta realiza as suas atividades, tendo em consideração a eficiência energética, ao longo do seu processo produtivo. Desta forma, o trabalho desenvolvido teve como objetivo o acompanhamento da implementação do sistema de monitorização e recolha de dados, que posteriormente foi útil na redução dos consumos energéticos (consumo de ar comprimido). Para além disto, também foi proposta uma medida de eficiência energética que visa a redução de energia elétrica na área da iluminação. O sistema de monitorização e recolha de dados e a criação de uma equipa de redução do consumo de ar comprimido permitiram a identificação das áreas de atuação, a monitorização das metas estipuladas no âmbito da equipa e a detecção de anomalias. A medida de eficiência energética aplicada incide na substituição de lâmpadas fluorescentes tubulares T8 por lâmpadas fluorescentes tubulares T5. Assim, a implementação deste sistema e a aplicação das medidas de eficiência energética na rede de ar comprimido no âmbito da equipa permitiram uma redução de 0,03 kWh/hL o que significa uma poupança de 5.600 € em quinze semanas. Ao nível da iluminação as medidas sugeridas permitem uma redução de 8.945 kWh/ano o que corresponde a uma poupança de 1.055 €/ano.
Resumo:
A ocratoxina A (OTA), micotoxina encontrada em diferentes níveis e em diversas matrizes, apresenta efeitos carcinogênicos, nefrotóxicos e teratogênicos. O desenvolvimento de métodos capazes de diminuir esta contaminação a níveis permitidos pela legislação é incentivado e os processos biológicos utilizados envolvem o uso de enzimas e/ou microrganismos para degradação da OTA e são preferenciais pela especificidade, bem como pelas condições brandas para a detoxificação. O objetivo do trabalho foi estudar a ação de carboxipeptidase A nos níveis e na toxicidade de OTA, visando aplicar a técnica para detoxificar farinhas de trigo. Primeiramente foi estimado o risco de exposição à ocratoxina A pelo consumo de farinhas de trigo. Para isso foram estabelecidas condições de determinação de OTA em farinhas de trigo, empregando técnicas de estatística multivariada para definir os principais interferentes na extração de OTA pelo método de QuEChERS e detecção em CLAE-FL. O método validado permitiu a avaliação da ocorrência natural em 20 amostras de farinha de trigo, estando estas contaminadas na faixa de 0,22 a 0,85 µg.kg-1 , apresentando um valor de ingestão diária de 0,08 ngOTA.dia-1 .kgmassacorpórea -1 e uma disponibilidade de 94,4%. Em seguida foi realizada a padronização da extração de carboxipeptidase A em biomassa de Rhizopus oryzae que consistiu em agitação ultrassônica durante 30 minutos numa potencia fixa de 150 W e 40 kHz e a triagem de agentes biológicos para degradação de OTA. Para o estudo da degradação in vitro de OTA, método de extração e detecção de OTA e OTα em CLAEFL foi validado e o processo de degradação foi realizado com Rhizopus oryzae e Trichoderma reesei, obtendo-se uma redução máxima de 63,5% e 57,7%, respectivamente. A degradação apresentou uma correlação alta (R>0,9) e significativa (p<0,05) com a produção de Otα, indicando que ocorreu a produção de enzimas capazes de hidrolisar a micotoxina, por exemplo, a carboxipeptidase A. O estudo da toxicidade de OTA e seu metabólito OTα foi realizado em neutrófilos humanos, onde foi observado a ausência de efeito tóxico de OTα. Também foi determinado o mecanismo de toxicidade de OTA pelo aumento de Ca2+ intracelular pela liberação a partir das reservas internas. Esta liberação, subsequentemente, provoca uma cascata de eventos, nomeadamente: a produção de espécies reativas, depleção de ATP, perda de ΔΨm, levando à morte por necrose. Para reduzir o risco de exposição à micotoxina pela ingestão de matéria prima contaminada, carboxipeptidase A extraída de diferentes fontes foi aplicada na hidrólise de OTA em farinha de trigo para posterior determinação do conteúdo residual de OTA e OTα, empregando método validado. O estudo mostrou uma redução de OTA entre 16,8 e 78,5% e produção de OTα entre 2 a 8,2 ng.g-1 . As carboxipeptidases mais promissoras para degradação foram as provenientes de Rhizopus e Trichoderma e a carboxipeptidase comercial. Ficou demonstrado que se pode recomendar a aplicação de enzimas proteolíticas, tipo carboxipeptidase, para reduzir o risco de exposição à micotoxina quando utilizada matéria prima contaminada, por exemplo, farinha de trigo para diferentes processos. A transformação de OTA para OTα e seus efeitos na redução da toxicidade da micotoxina corroboram com esta afirmação.
Resumo:
La ingesta de etanol se ha relacionado a consecuencias lamentables a nivel social, familiar y jurídico; siendo importante el desarrollo de métodos de detección de etanol en sangre, prueba más confiable a nivel cuantitativo. En el presente trabajo se realizó la primera fase de la optimización de un método para el análisis de alcoholemia por cromatografía de gases con inyección directa y detección de ionización de llama (GC-FID). Se realizó la optimización de algunos parámetros cualitativos y cuantitativos, incluyendo tiempos de retención estables, selectividad del método demostrado por la ausencia de sustancias interferentes en el análisis; linealidad a bajos niveles con un coeficiente de determinación de R2 = 0.996. La aplicabilidad del método en un pool de 33 muestras con distintas concentraciones de etanol tomadas cómo puntos de referencia de baja, media y alta concentración. La cuantificación se realizó por estandarización interna mediante el uso de un estándar interno (n-butanol) y la estandarización externa mediante la curva de calibración a 4 niveles.
Resumo:
Ethernet connections, which are widely used in many computer networks, can suffer from electromagnetic interference. Typically, a degradation of the data transmission rate can be perceived as electromagnetic disturbances lead to corruption of data frames on the network media. In this paper a software-based measuring method is presented, which allows a direct assessment of the effects on the link layer. The results can directly be linked to the physical interaction without the influence of software related effects on higher protocol layers. This gives a simple tool for a quantitative analysis of the disturbance of an Ethernet connection based on time domain data. An example is shown, how the data can be used for further investigation of mechanisms and detection of intentional electromagnetic attacks. © 2015 Author(s).
Resumo:
Para o diagnóstico radiológico das patologias ginecológicas é essencial conhecer e compreender as indicações dos vários exames disponíveis e, para cada achado radiológico, integrar a idade, o contexto clínico e a história pregressa da doente. A Ressonância Magnética (RM) tem hoje um papel crucial no diagnóstico das doenças ginecológicas. Contudo, para maximizar o potencial desta técnica é imprescindível adequar o protocolo utilizado a cada caso e a cada doente e ter em conta algumas regras imprescindíveis à interpretação dos exames, que descreveremos neste artigo. A RM ginecológica é principalmente útil no estadiamento do carcinoma do colo do útero e do endométrio, podendo por vezes ser também útil na sua detecção, na avaliação da resposta ao tratamento, detecção da recidiva ou complicações e na avaliação de lesões anexiais de natureza indeterminada na ecografia. Nas doenças benignas é frequentemente usada na avaliação pré-terapêutica de leiomiomas uterinos, bem como na adenomiose e na endometriose. Em muitas destas situações há potenciais erros e pitfalls, para os quais o médico radiologista deve estar alerta, de forma a minimizar eventuais falhas diagnósticas ou erros de estadiamento.
Resumo:
Object recognition has long been a core problem in computer vision. To improve object spatial support and speed up object localization for object recognition, generating high-quality category-independent object proposals as the input for object recognition system has drawn attention recently. Given an image, we generate a limited number of high-quality and category-independent object proposals in advance and used as inputs for many computer vision tasks. We present an efficient dictionary-based model for image classification task. We further extend the work to a discriminative dictionary learning method for tensor sparse coding. In the first part, a multi-scale greedy-based object proposal generation approach is presented. Based on the multi-scale nature of objects in images, our approach is built on top of a hierarchical segmentation. We first identify the representative and diverse exemplar clusters within each scale. Object proposals are obtained by selecting a subset from the multi-scale segment pool via maximizing a submodular objective function, which consists of a weighted coverage term, a single-scale diversity term and a multi-scale reward term. The weighted coverage term forces the selected set of object proposals to be representative and compact; the single-scale diversity term encourages choosing segments from different exemplar clusters so that they will cover as many object patterns as possible; the multi-scale reward term encourages the selected proposals to be discriminative and selected from multiple layers generated by the hierarchical image segmentation. The experimental results on the Berkeley Segmentation Dataset and PASCAL VOC2012 segmentation dataset demonstrate the accuracy and efficiency of our object proposal model. Additionally, we validate our object proposals in simultaneous segmentation and detection and outperform the state-of-art performance. To classify the object in the image, we design a discriminative, structural low-rank framework for image classification. We use a supervised learning method to construct a discriminative and reconstructive dictionary. By introducing an ideal regularization term, we perform low-rank matrix recovery for contaminated training data from all categories simultaneously without losing structural information. A discriminative low-rank representation for images with respect to the constructed dictionary is obtained. With semantic structure information and strong identification capability, this representation is good for classification tasks even using a simple linear multi-classifier.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Instituto de Química, Programa de Pós-Graduação em Tecnologias Química e Biológica, 2016.