1000 resultados para Biblioteca digital de teses e dissertações


Relevância:

100.00% 100.00%

Publicador:

Resumo:

No mercado global e digital, as empresas são desafiadas a encontrar caminhos inovadores para atender o aumento da pressão -competitiva. A competição é uma das formas de interação das organizações, além da colaboração e da cooperação. A cooperação e a colaboração apresentam formas de produzir conjuntamente aumentando o potencial de atendimento das empresas. Os desafios mais encontrados no mercado são: reduzir os custos, sempre assegurar qualidade e personalizar os produtos e serviços. Um fenômeno de negócios comum hoje é a terceirização da manufatura e da logística para fornecedores domésticos e estrangeiros e provedores de serviços. Essa terceirização provoca, intrinsecamente, um espalhamento geográfico da produção em novos centros que oferecem vantagens nos recursos energéticos, matérias primas e centros de produção de conhecimento. Essa terceirização pode ser realizada também nas formas de colaboração e cooperação. Para isso, as empresas necessitam estabelecer uma forma de confiança entre si. No conceito de empresa virtual, a confiança é amplamente discutida para atingir uma colaboração e/ou cooperação entre empresas. O objetivo deste trabalho é propor e modelar uma ferramenta que atenda as necessidades das empresas para colaboração e/ou cooperação entre elas, considerando suas necessidades de confiança. As empresas aqui são vistas como sistemas produtivos, com suas camadas de gerenciamento de negócios, de acordo com o padrão ANSI/ISA 95. Além disso, um tipo de interpretação da rede de Petri, chamada de rede de Petri produtiva é introduzida como ferramenta para descrever o processo produtivo realizado pelas empresas na forma de workflow. A modelagem dessa arquitetura do sistema produtivo utiliza técnicas de sistemas distribuídos, como a arquitetura orientada a serviços. Além disso, um dos enfoques é das necessidades para o desenvolvimento de novos produtos, que envolve o desafio de personalização. Testes foram realizados para avaliar a proposta de workflow com pessoas de diferentes níveis de conhecimento sobre os processos, sejam de manufatura, sejam de outras áreas. Já a arquitetura proposta foi submetida a um estudo analítico das hipóteses levantadas no ambiente colaborativo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Considerando que o petróleo quando extraído dos poços em águas profundas chega a ter teor de água superior a 50% e que antes de ser enviado à refinaria deve ter uma quantidade de água inferior a 1%, torna-se necessário o uso de técnicas de redução da quantidade de água. Durante a extração do petróleo formam-se emulsões de água em óleo que são muito estáveis devido a um filme interfacial contendo asfaltenos e/ou resinas ao redor das gotas de água. Nesse trabalho é apresentada a utilização de ondas estacionárias de ultrassom para realizar a quebra dessas emulsões. Quando gotículas de água com dimensões da ordem de 10m, muito menores que o comprimento de onda, são submetidas a um campo acústico estacionário em óleo, a força de radiação acústica empurra as gotículas para os nós de pressão da onda. Uma célula de coalescência com frequência central ao redor de 1 MHz, constituída por quatro camadas sendo uma piezelétrica, uma de acoplamento sólido, uma com o líquido e outra refletora, foi modelada empregando o método da matriz de transferência, que permite calcular a impedância elétrica em função da frequência. Para minimizar o efeito do gradiente de temperatura entre a entrada e a saída da cavidade da célula, quando está em operação, foram utilizados dois transdutores piezelétricos posicionados transversalmente ao fluxo que são excitados e controlados independentemente. Foi implementado um controlador digital para ajustar a frequência e a potência de cada transdutor. O controlador tem como entrada o módulo e a fase da corrente elétrica no transdutor e como saída a amplitude da tensão elétrica e a frequência. Para as células desenvolvidas, o algoritmo de controle segue um determinado pico de ressonância no interior da cavidade da célula no intervalo de frequência de 1,09 a 1,15 MHz. A separação acústica de emulsões de água em óleo foi realizada em uma planta de laboratório de processamento de petróleo no CENPES/PETROBRAS. Foram testados a variação da quantidade de desemulsificante, o teor inicial de água na emulsão e a influência da vazão do sistema, com uma potência de 80 W. O teor final de água na emulsão mostrou que a aplicação de ultrassom aumentou a coalescência de água da emulsão, em todas as condições testadas, quando comparada a um teste sem aplicação de ultrassom. Identificou-se o tempo de residência no interior da célula de separação como um fator importante no processo de coalescência de emulsões de água e óleo. O uso de desemulsificante químico é necessário para realizar a separação, porém, em quantidades elevadas implicaria no uso de processos adicionais antes do repasse final do petróleo à refinaria. Os teores iniciais de água na emulsão de 30 e 50% indicam que o uso da onda estacionária na coalescência de emulsões não tem limitação quanto a esse parâmetro. De acordo com os resultados obtidos em laboratório, essa técnica seria indicada como uma alternativa para integrar um sistema de processamento primário em conjunto com um separador eletrostático.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente tese propõe uma metodologia dedeo-mapeamento móvel georreferenciado a partir do desenvolvimento de protótipos que utilizam uma Interface de Geovisualização Multimídia para sincronizar o registro (em vídeo) de um local ou evento de interesse com a rota percorrida pelo veículo de inspeção (sobre mapa ou imagem), através da coleta de dados por sensores móveis: câmera digital, microfone, receptor GNSS e bússola digital. A interface permite a integração desses sensores com os atuais serviços de mapas digitais disponíveis na web. Sistemas como esse melhoram significativamente as análises temporais, a gestão e a tomada de decisão. A interface proposta e desenvolvida no presente trabalho é útil para muitas aplicações como ferramenta de monitoramento e inventário. Esta interface pode ser entendida como o componente visual de um sistema de mapeamento móvel ou como um sistema cartográfico alternativo ou complementar, para aplicações em que a precisão geométrica do receptor GNSS, na modalidade de navegação, é suficiente e sua acessibilidade, um fator competitivo. As aplicações desenvolvidas no presente trabalho foram duas: um sistema de monitoramento e inventário de placas de sinalização viária e um sistema de monitoramento de cheias/secas e inventário de propriedades na borda de reservatórios de hidroelétricas, ambos em pleno funcionamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nas últimas décadas, a poluição sonora tornou-se um grande problema para a sociedade. É por esta razão que a indústria tem aumentado seus esforços para reduzir a emissão de ruído. Para fazer isso, é importante localizar quais partes das fontes sonoras são as que emitem maior energia acústica. Conhecer os pontos de emissão é necessário para ter o controle das mesmas e assim poder reduzir o impacto acústico-ambiental. Técnicas como \"beamforming\" e \"Near-Field Acoustic Holography\" (NAH) permitem a obtenção de imagens acústicas. Essas imagens são obtidas usando um arranjo de microfones localizado a uma distância relativa de uma fonte emissora de ruído. Uma vez adquiridos os dados experimentais pode-se obter a localização e magnitude dos principais pontos de emissão de ruído. Do mesmo modo, ajudam a localizar fontes aeroacústicas e vibro acústicas porque são ferramentas de propósito geral. Usualmente, estes tipos de fontes trabalham em diferentes faixas de frequência de emissão. Recentemente, foi desenvolvida a transformada de Kronecker para arranjos de microfones, a qual fornece uma redução significativa do custo computacional quando aplicada a diversos métodos de reconstrução de imagens, desde que os microfones estejam distribuídos em um arranjo separável. Este trabalho de mestrado propõe realizar medições com sinais reais, usando diversos algoritmos desenvolvidos anteriormente em uma tese de doutorado, quanto à qualidade do resultado obtido e à complexidade computacional, e o desenvolvimento de alternativas para tratamento de dados quando alguns microfones do arranjo apresentarem defeito. Para reduzir o impacto de falhas em microfones e manter a condição de que o arranjo seja separável, foi desenvolvida uma alternativa para utilizar os algoritmos rápidos, eliminando-se apenas os microfones com defeito, de maneira que os resultados finais serão obtidos levando-se em conta todos os microfones do arranjo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uma grande diversidade de macrofibras poliméricas para reforço de concreto se encontram disponibilizadas hoje em dia. Por natureza estas fibras apresentam grande diversidade de características e propriedades. Estas variações afetam sua atuação como reforço no concreto. No entanto, não há normas brasileiras sobre o assunto e as metodologias de caracterização de normas estrangeiras apresentam divergências. Algumas normas definem que a caracterização do comportamento mecânico deva ser feita nos fios originais e outras que se devam utilizar métodos definidos para caracterização de materiais metálicos. A norma EN14889-2:2006 apresenta maior abrangência, mas deixa dúvidas quanto à adequação dos critérios de caracterização geométrica das fibras e não define um método de ensaio específico para sua caracterização mecânica. Assim, há a necessidade de estabelecimento de uma metodologia que permita a realização de um programa de controle de qualidade da fibra nas condições de emprego. Esta metodologia também proporcionaria uma forma de caracterização do material para estudos experimentais, o que permitiria maior fundamentação científica desses trabalhos que, frequentemente, fundamentam-se apenas em dados dos fabricantes. Assim, foi desenvolvido um estudo experimental focando a caracterização de duas macrofibras poliméricas disponíveis no mercado brasileiro. Focou-se o estudo na determinação dos parâmetros geométricos e na caracterização mecânica através da determinação da resistência à tração e avaliação do módulo de elasticidade. Na caracterização geométrica foi adotada como referência a norma europeia EN14889-2:2006. As medições do comprimento se efetuaram por dois métodos: o método do paquímetro e o método de análise de imagens digitais, empregando um software para processamento das imagens. Para a medição do diâmetro, além das metodologias mencionadas, foi usado o método da densidade. Conclui-se que o método do paquímetro, com o cuidado de esticar previamente as macrofibras, e o método das imagens digitais podem ser igualmente utilizados para medir o comprimento. Já parar determinar o diâmetro, recomenda-se o método da densidade. Quanto à caracterização mecânica, foi desenvolvida uma metodologia própria a partir de informações obtidas de outros ensaios. Assim, efetuaram-se ensaios de tração direta nas macrofibras coladas em molduras de tecido têxtil. Complementarmente, foi avaliado também o efeito do contato abrasivo das macrofibras com os agregados durante a mistura em betoneira no comportamento mecânico do material. Também se avaliou o efeito do método de determinação da área da seção transversal nos resultados medidos no ensaio de tração da fibra. Conclui-se que o método proposto para o ensaio de tração direta da fibra é viável, especialmente para a determinação da resistência à tração. O valor do módulo de elasticidade, por sua vez, acaba sendo subestimado. A determinação da área da seção da fibra através do método da densidade forneceu também os melhores resultados. Além disso, comprovou-se que o atrito das fibras com o agregado durante a mistura compromete o comportamento mecânico, reduzindo tanto a resistência quanto o módulo de elasticidade. Assim, pode-se afirmar que a metodologia proposta para o controle geométrico e mecânico das macrofibras poliméricas é adequada para a caracterização do material.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A crescente demanda por recursos naturais e a conseqüente perda de qualidade e quantidade dos mesmos, indica a necessidade do desenvolvimento de alternativas, nas diversas áreas do conhecimento e das atividades humanas. No caso dos agroecossistemas, as práticas convencionais provocaram ao longo do tempo a degradação do solo e dos recursos hídricos, a perda da biodiversidade e a desestruturação dos ecossistemas, que culminaram em desequilíbrios globais de balanço hídrico e temperatura. O presente estudo visa analisar o potencial de utilização de Sistemas Agroflorestais (SAFs). SAFs são práticas de manejo da terra há muito tempo conhecidas, que associam, deliberadamente, árvores com culturas agrícolas temporárias, permanentes e/ou animais simultaneamente ou sucedendo-se temporalmente no espaço; obtendo os benefícios de proteção ambiental e de produção proporcionados pelas árvores. Para a realização do estudo foram utilizadas as bases cartográficas digitalizadas das características ambientais (solo, topografia, hidrologia e clima) do município e as mesmas foram sobrepostas através do Sistema de Informação Geográfica (SIG). As características ambientais de São Carlos, indicam a necessidade da adoção de sistemas de produção sustentáveis, capazes de conservar a qualidade e a quantidade do solo e dos recursos hídricos disponíveis, bem como sua biodiversidade, por isso apresenta grande aptidão para a utilização dos SAFs e uma ampla variedade de espécies com potencial de uso. A prioridade de adoção de SAFs é para áreas degradadas e subutilizadas, áreas de preservação ambiental e adjacentes, reservas legais e áreas suscetíveis à erosão. Sugere-se novos estudos, em campo, para comprovação dos resultados teóricos obtidos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O escoamento bifásico de gás-líquido é encontrado em muitos circuitos fechados que utilizam circulação natural para fins de resfriamento. O fenômeno da circulação natural é importante nos recentes projetos de centrais nucleares para a remoção de calor. O circuito de circulação natural (Circuito de Circulação Natural - CCN), instalado no Instituto de Pesquisas Energéticas e Nucleares, IPEN / CNEN, é um circuito experimento concebido para fornecer dados termo-hidráulicos relacionados com escoamento monofásico ou bifásico em condições de circulação natural. A estimativa de transferência de calor tem sido melhorada com base em modelos que requerem uma previsão precisa de transições de padrão de escoamento. Este trabalho apresenta testes experimentais desenvolvidos no CCN para a visualização dos fenômenos de instabilidade em ciclos de circulação natural básica e classificar os padrões de escoamento bifásico associados aos transientes e instabilidades estáticas de escoamento. As imagens são comparadas e agrupadas utilizando mapas auto-organizáveis de Kohonen (SOM), aplicados em diferentes características da imagem digital. Coeficientes da Transformada Discreta de Cossenos de Quadro Completo (FFDCT) foram utilizados como entrada para a tarefa de classificação, levando a bons resultados. Os protótipos de FFDCT obtidos podem ser associados a cada padrão de escoamento possibilitando uma melhor compreensão da instabilidade observada. Uma metodologia sistemática foi utilizada para verificar a robustez do método.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação apresenta o desenvolvimento de uma plataforma inercial autônoma com três graus de liberdade para aplicação em estabilização de sensores - por exemplo, gravimétricos estacionários e embarcados - podendo ser utilizada também para estabilização de câmeras. O sistema é formado pela Unidade de Medida Inercial, IMU, desenvolvida utilizando um sensor micro eletromecânico, MEMS - que possui acelerômetro, giroscópio e magnetômetros nos três eixos de orientação - e um microcontrolador para aquisição, processamento e envio dos dados ao sistema de controle e aquisição de dados. Para controle dos ângulos de inclinação e orientação da plataforma, foi implementado um controlador PID digital utilizando microcontrolador. Este recebe os dados da IMU e fornece os sinais de controle utilizando as saídas PWM que acionam os motores, os quais controlam a posição da plataforma. Para monitoramento da plataforma foi desenvolvido um programa para aquisição de dados em tempo real em ambiente Matlab, por meio do qual se pode visualizar e gravar os sinais da IMU, os ângulos de inclinação e a velocidade angular. Testou-se um sistema de transmissão de dados por rádio frequência entre a IMU e o sistema de aquisição de dados e controle para avaliar a possibilidade da não utilização de slip rings ou fios entre o eixo de rotação e os quadros da plataforma. Entretanto, verificou-se a inviabilidade da transmissão em razão da baixa velocidade de transmissão e dos ruídos captados pelo receptor de rádio frequência durante osmovimentos da plataforma. Sendo assim, dois pares de fios trançados foram utilizados fios para conectar o sensor inercial ao sistema de aquisição e processamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A eficiência da amamentação exige uma complexa coordenação entre sucção, deglutição e respiração, sendo que a tecnologia tem possibilitado importantes avanços na compreensão desse processo. Porém, não foram encontrados vídeos disponíveis na internet que demonstrassem a anatomia e fisiologia da amamentação, de modo didático e fidedigno à ciência atual. Este trabalho teve por objetivo descrever o desenvolvimento de uma sequência em computação gráfica sobre a sucção e a deglutição, resultante da produção digital do Bebê Virtual, bem como validar tal produção quanto ao conteúdo e prover adequações necessárias ao material educacional. Para a produção das iconografias em 3D da sucção e deglutição no Bebê Virtual, inicialmente foi elaborado um mapa conceitual e uma matriz de conteúdos, objetivos e competências voltadas ao material educacional. Posteriormente foi elaborado um roteiro científico que abordou a anatomia do crânio, face, cavidade oral, faringe, laringe e esôfago do recém-nascido, bem como, a descrição dos mecanismos fisiológicos relacionados à sucção e às fases oral e faríngea da deglutição no bebê. Para isso foram utilizadas 14 publicações do período de 1998 a 2008, que continham informações relevantes para demonstrar a amamentação. Os conteúdos teóricos foram organizados em cenas principais, possibilitando a criação de previews das sequências dinâmicas, as quais foram avaliadas por profissionais de anatomia, fonoaudiologia e medicina, possibilitando os ajustes necessários e a construção das imagens em computação gráfica 3D. Para análise da validade de conteúdo dessas imagens foi verificada a representatividade dos itens que o compõe, por meio de consulta à literatura. Foram incluídos estudos que utilizaram auxílio tecnológico e abordaram o tema proposto em bebês a termo e saudáveis, sem alterações neurológicas ou anomalias craniofaciais. Foram excluídas as publicações realizadas com bebês pré-termo, sindrômicos, com anomalias, doenças neurológicas ou qualquer alteração que pudesse interferir na amamentação, revisões de literatura e relatos de caso. Os artigos selecionados foram analisados e classificados quanto ao nível de evidência científica, predominando o nível três de evidência. A análise de conteúdo demonstrou a necessidade de adequações nas iconografias 3D, para que o processo de sucção e deglutição demonstrado no bebê virtual pudesse corresponder ao conhecimento científico atual. Tais adequações foram propostas a partir dos achados de 9 estudos, publicados entre 2008 e 2014, que utilizaram ultrassonografia para demonstrar como ocorre o processo de amamentação. Desta forma, foram modificados os aspectos da pega, da movimentação de língua, mandíbula, palato mole e laringe, além da sincronização da sucção/deglutição/respiração e deslocamento do mamilo, num processo desenvolvido em cinco etapas. Assim, o presente estudo descreveu o processo de desenvolvimento das iconografias em 3D sobre a anatomia e fisiologia da sucção e deglutição no recém-nascido a termo, sendo que a validade de conteúdo permitiu atualizar vários aspectos da amamentação do Bebê Virtual, quebrando velhos paradigmas e possibilitando ilustrar didaticamente as evidências científicas relacionadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esse trabalho de mestrado teve como estudo o transistor Túnel-FET (TFET) fabricado em estrutura de nanofio de silício. Este estudo foi feito de forma teórica (simulação numérica) e experimental. Foram estudadas as principais características digitais e analógicas do dispositivo e seu potencial para uso em circuitos integrados avançados para a próxima década. A análise foi feita através da extração experimental e estudo dos principais parâmetros do dispositivo, tais como inclinação de sublimiar, transcondutância (gm), condutância de saída (gd), ganho intrínseco de tensão (AV) e eficiência do transistor. As medidas experimentais foram comparadas com os resultados obtidos pela simulação. Através do uso de diferentes parâmetros de ajuste e modelos de simulação, justificou-se o comportamento do dispositivo observado experimentalmente. Durante a execução deste trabalho estudou-se a influência da escolha do material de fonte no desempenho do dispositivo, bem como o impacto do diâmetro do nanofio nos principais parâmetros analógicos do transistor. Os dispositivos compostos por fonte de SiGe apresentaram valores maiores de gm e gd do que aqueles compostos por fonte de silício. A diferença percentual entre os valores de transcondutância para os diferentes materiais de fonte variou de 43% a 96%, sendo dependente do método utilizado para comparação, e a diferença percentual entre os valores de condutância de saída variou de 38% a 91%. Observou-se também uma degradação no valor de AV com a redução do diâmetro do nanofio. O ganho calculado a partir das medidas experimentais para o dispositivo com diâmetro de 50 nm é aproximadamente 45% menor do que o correspondente ao diâmetro de 110 nm. Adicionalmente estudou-se o impacto do diâmetro considerando diferentes polarizações de porta (VG) e concluiu-se que os TFETs apresentam melhor desempenho para baixos valores de VG (houve uma redução de aproximadamente 88% no valor de AV com o aumento da tensão de porta de 1,25 V para 1,9 V). A sobreposição entre porta e fonte e o perfil de dopantes na junção de tunelamento também foram analisados a fim de compreender qual combinação dessas características resultariam em um melhor desempenho do dispositivo. Observou-se que os melhores resultados estavam associados a um alinhamento entre o eletrodo de porta e a junção entre fonte e canal e a um perfil abrupto de dopantes na junção. Por fim comparou-se a tecnologia MOS com o TFET, obtendo-se como resultado um maior valor de AV (maior do que 40 dB) para o TFET.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho avalia a influência das emoções humanas expressas pela mímica da face na tomada de decisão de sistemas computacionais, com o objetivo de melhorar a experiência do usuário. Para isso, foram desenvolvidos três módulos: o primeiro trata-se de um sistema de computação assistiva - uma prancha de comunicação alternativa e ampliada em versão digital. O segundo módulo, aqui denominado Módulo Afetivo, trata-se de um sistema de computação afetiva que, por meio de Visão Computacional, capta a mímica da face do usuário e classifica seu estado emocional. Este segundo módulo foi implementado em duas etapas, as duas inspiradas no Sistema de Codificação de Ações Faciais (FACS), que identifica expressões faciais com base no sistema cognitivo humano. Na primeira etapa, o Módulo Afetivo realiza a inferência dos estados emocionais básicos: felicidade, surpresa, raiva, medo, tristeza, aversão e, ainda, o estado neutro. Segundo a maioria dos pesquisadores da área, as emoções básicas são inatas e universais, o que torna o módulo afetivo generalizável a qualquer população. Os testes realizados com o modelo proposto apresentaram resultados 10,9% acima dos resultados que usam metodologias semelhantes. Também foram realizadas análises de emoções espontâneas, e os resultados computacionais aproximam-se da taxa de acerto dos seres humanos. Na segunda etapa do desenvolvimento do Módulo Afetivo, o objetivo foi identificar expressões faciais que refletem a insatisfação ou a dificuldade de uma pessoa durante o uso de sistemas computacionais. Assim, o primeiro modelo do Módulo Afetivo foi ajustado para este fim. Por fim, foi desenvolvido um Módulo de Tomada de Decisão que recebe informações do Módulo Afetivo e faz intervenções no Sistema Computacional. Parâmetros como tamanho do ícone, arraste convertido em clique e velocidade de varredura são alterados em tempo real pelo Módulo de Tomada de Decisão no sistema computacional assistivo, de acordo com as informações geradas pelo Módulo Afetivo. Como o Módulo Afetivo não possui uma etapa de treinamento para inferência do estado emocional, foi proposto um algoritmo de face neutra para resolver o problema da inicialização com faces contendo emoções. Também foi proposto, neste trabalho, a divisão dos sinais faciais rápidos entre sinais de linha base (tique e outros ruídos na movimentação da face que não se tratam de sinais emocionais) e sinais emocionais. Os resultados dos Estudos de Caso realizados com os alunos da APAE de Presidente Prudente demonstraram que é possível melhorar a experiência do usuário, configurando um sistema computacional com informações emocionais expressas pela mímica da face.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ALICE is one of four major experiments of particle accelerator LHC installed in the European laboratory CERN. The management committee of the LHC accelerator has just approved a program update for this experiment. Among the upgrades planned for the coming years of the ALICE experiment is to improve the resolution and tracking efficiency maintaining the excellent particles identification ability, and to increase the read-out event rate to 100 KHz. In order to achieve this, it is necessary to update the Time Projection Chamber detector (TPC) and Muon tracking (MCH) detector modifying the read-out electronics, which is not suitable for this migration. To overcome this limitation the design, fabrication and experimental test of new ASIC named SAMPA has been proposed . This ASIC will support both positive and negative polarities, with 32 channels per chip and continuous data readout with smaller power consumption than the previous versions. This work aims to design, fabrication and experimental test of a readout front-end in 130nm CMOS technology with configurable polarity (positive/negative), peaking time and sensitivity. The new SAMPA ASIC can be used in both chambers (TPC and MCH). The proposed front-end is composed of a Charge Sensitive Amplifier (CSA) and a Semi-Gaussian shaper. In order to obtain an ASIC integrating 32 channels per chip, the design of the proposed front-end requires small area and low power consumption, but at the same time requires low noise. In this sense, a new Noise and PSRR (Power Supply Rejection Ratio) improvement technique for the CSA design without power and area impact is proposed in this work. The analysis and equations of the proposed circuit are presented which were verified by electrical simulations and experimental test of a produced chip with 5 channels of the designed front-end. The measured equivalent noise charge was <550e for 30mV/fC of sensitivity at a input capacitance of 18.5pF. The total core area of the front-end was 2300?m × 150?m, and the measured total power consumption was 9.1mW per channel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A ciência na qual se estuda a deformação de um fluido no qual é aplicada uma tensão de cisalhamento é conhecida como reologia e o equipamento utilizado para a realização dos ensaios é chamado de reômetro. Devido a impraticabilidade de uso de reômetros comerciais, diversos pesquisadores desenvolveram reômetros capazes de analisar suspensões de macropartículas, baseados nos mesmos princípios de funcionamento dos equipamentos já existentes. Em alguns casos, a medição do torque do motor é realizada pela aquisição da tensão, uma vez que esta é proporcional ao torque. Entretanto, para melhor compreensão do resultado e para evitar a possibilidade de conclusões precipitadas, vê-se necessária correta interpretação do sinal elétrico, precisando avaliar qual frequência do sinal é relevante para o ensaio e, também, qual a melhor taxa de amostragem. Além da aquisição, para que o ensaio reológico seja realizado com precisão, é indispensável ótimo controle da taxa ou tensão do motor e uma alternativa é a utilização de um servomotor e um servoconversor. No caso desse ser comercial é essencial saber configurá-lo. Para facilitar o usuário leigo, alguns pesquisadores desenvolveram softwares para controle do equipamento e análise dos dados. Assim, o presente trabalho tem como objetivo propor uma metodologia para compreender o sinal aquisitado de um reômetro servo controlado e desenvolvimento do software de análise para o tratamento dos dados obtidos a partir de ensaios reológicos. Verificou-se a melhor configuração do servocontrolador, a melhor taxa de amostragem, de no mínimo 20 amostras/segundo, e, também, desenvolveu-se um filtro digital passa-baixa do tipo FIR para remover a frequência indesejada. Além disso, foi desenvolvido um software utilizando uma rotina em Matlab e uma interface gráfica do usuário (Graphical User Interface - GUI), para o pós-processamento dos dados para auxiliar o usuário leigo no tratamento e interpretação do resultado, que se mostrou eficaz.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ALICE is one of four major experiments of particle accelerator LHC installed in the European laboratory CERN. The management committee of the LHC accelerator has just approved a program update for this experiment. Among the upgrades planned for the coming years of the ALICE experiment is to improve the resolution and tracking efficiency maintaining the excellent particles identification ability, and to increase the read-out event rate to 100 KHz. In order to achieve this, it is necessary to update the Time Projection Chamber detector (TPC) and Muon tracking (MCH) detector modifying the read-out electronics, which is not suitable for this migration. To overcome this limitation the design, fabrication and experimental test of new ASIC named SAMPA has been proposed . This ASIC will support both positive and negative polarities, with 32 channels per chip and continuous data readout with smaller power consumption than the previous versions. This work aims to design, fabrication and experimental test of a readout front-end in 130nm CMOS technology with configurable polarity (positive/negative), peaking time and sensitivity. The new SAMPA ASIC can be used in both chambers (TPC and MCH). The proposed front-end is composed of a Charge Sensitive Amplifier (CSA) and a Semi-Gaussian shaper. In order to obtain an ASIC integrating 32 channels per chip, the design of the proposed front-end requires small area and low power consumption, but at the same time requires low noise. In this sense, a new Noise and PSRR (Power Supply Rejection Ratio) improvement technique for the CSA design without power and area impact is proposed in this work. The analysis and equations of the proposed circuit are presented which were verified by electrical simulations and experimental test of a produced chip with 5 channels of the designed front-end. The measured equivalent noise charge was <550e for 30mV/fC of sensitivity at a input capacitance of 18.5pF. The total core area of the front-end was 2300?m × 150?m, and the measured total power consumption was 9.1mW per channel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A percepção de presença (PP), evolução do conceito de telepresença, pode ser definida como ilusão perceptiva de não mediação e/ou a percepção ilusória da realidade. O método mais utilizado para a avaliação da PP faz uso de questionários aplicados aos sujeitos, após sua participação numa experiência. Além de não fornecer informações em tempo real esse método sofre muitas interferências advindas tanto dos sujeitos submetidos ao experimento como dos avaliadores dos questionários. Os métodos que poderiam ser mais efetivos para a avaliação da PP, em tempo real, fazem uso de sinais fisiológicos que variam independentemente da vontade dos sujeitos, como batimento cardíaco, eletrocardiograma, eletroencefalograma, resistividade e umidade da pele. Os sinais fisiológicos, no entanto, só variam de forma significativa em situações de estresse, inviabilizando sua utilização em atividades normais, sem estresse. Outra forma de avaliar a PP é utilizar sistemas de rastreamento do olhar. Estudados e desenvolvidos desde o século 19, os sistemas de rastreamento do olhar fornecem um mapeamento do movimento dos olhos. Além de indicar para onde os sujeitos estão olhando, podem também monitorar a dilatação da pupila e as piscadas. Atualmente existem sistemas de rastreamento do olhar comerciais de baixo custo, que apesar de terem menos precisão e frequência que os equipamentos de alto custo são mais práticos e possuem software de plataforma aberta. No futuro serão tão comuns e simples de usar como são hoje as câmeras em dispositivos móveis e computadores, o que viabilizará a aplicação das técnicas e métodos aqui propostos em larga escala, principalmente para monitorar a atenção e envolvimento de atividades mediadas por vídeo. É apresentada uma ferramenta que faz uso do rastreamento do olhar para avaliar a percepção de presença em atividades mediadas por vídeo (com estímulos sonoros). Dois experimentos foram realizados para validar as hipóteses da pesquisa e a ferramenta. Um terceiro experimento foi executado para verificar a capacidade da ferramenta em avaliar a percepção de presença em atividades não estressantes mediadas por vídeo.