999 resultados para Atenuação de múltiplas. Deconvolução. Processamento sísmico


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de materiais inteligentes em problemas de controle de vibração tem sido investigado em diversas pesquisas ao longo dos últimos anos. Apesar de que diferentes materiais inteligentes estão disponíveis, o piezelétrico tem recebido grande atenção devido à facilidade de uso como sensores, atuadores, ou ambos simultaneamente. As principais técnicas de controle usando materiais piezoelétricos são os ativos e passivos. Circuitos piezelétricos passivos são ajustados para uma frequência específica e, portanto, a largura de banda efetiva é pequena. Embora os sistemas ativos possam apresentar um bom desempenho no controle de vibração, a quantidade de energia externa e hardware adicionado são questões importantes. As técnicas SSD (Synchronized Switch Damping) foram desenvolvidas como uma alternativa aos controladores passivos e controladores ativos de vibração. Elas podem ser técnicas semi-ativas ou semi-passivas que introduzem um tratamento não linear na tensão elétrica proveniente do material piezelétrico e induz um aumento na conversão de energia mecânica para energia elétrica e, consequentemente, um aumento no efeito de amortecimento. Neste trabalho, o controle piezoelétrico semi-passivo de uma pá piezelétrica engastada é apresentado e comparado com outros controladores. O modelo não linear electromecânico de uma pá com piezocerâmicas incorporados é determinado com base no método variacional-assintótico (VAM). O sistema rotativo acoplado não linear é resolvido no domínio do tempo, utilizando um método de integração alfa-generalizado afim de garantir a estabilidade numérica. As simulações são realizadas para uma vasta gama de velocidades de rotação. Em primeiro lugar, um conjunto de resistências (variando desde a condição de curto-circuito para a condição de circuito aberto) é considerada. O efeito da resistência ótima (que resulta em máximo amortecimento) sobre o comportamento do sistema é investigado para o aumento da velocidade de rotação. Mais tarde, a técnica SSDS é utilizada para amortecer as oscilações da pá com o aumento da velocidade de rotação. Os resultados mostram que a técnica SSDS pode ser um método útil para o controle de vibrações de vigas rotativas não lineares, tais como pás de helicóptero.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Discutimos nesta pesquisa o uso dos elementos de Cortesia, em especifico, a atenuação, entendida como categoria pragmática que afeta as relações interpessoais enquanto atividade linguística (redução do dito e do dizer) e social (aproximação ou não distanciamento do outro). Enfatizando estes aspectos, o trabalho tem como objetivo comparar o emprego de procedimentos linguísticos de atenuação na produção de atos diretivos e respostas não preferidas (atos de fala não corteses), por estudantes universitários das cidades de São Paulo (Brasil) e Córdoba (Argentina). Ainda, explicar as diferenças tendo como base os conceitos de sociedades de aproximação e distanciamento (HAVERKATE, 2004 e BRIZ, 2007) e analisar as diferenças nas interpretações que realizaram os estudantes da cidade argentina dos enunciados formulados pelos paulistanos. Nesta investigação, formulou-se e aplicou-se questionário de coleta de dados denominado testes sociais no qual apareceram situações de interação no ambiente de trabalho e da faculdade. No processo analítico deste fenômeno, usamos o método comparativo salientando as relações quantitativas e qualitativas dos enunciados estabelecidos pelos paulistanos e cordobeses, analisando dois tópicos, a comparação dos procedimentos de atenuação empregados; e a interpretação dos enunciados (dos estudantes paulistanos) feita pelos alunos de Córdoba. Como resultado, verificamos o uso acentuado de procedimentos de atenuação por parte dos paulistanos, causando interpretações díspares por parte dos cordobeses.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem por objetivo a aplicação do processamento por atrito linear na liga de titânio Ti-6Al-4V. Derivado da solda por atrito linear, é um processo recente desenvolvido na década de 90 para união de alumínio. Sua aplicação em outros tipos de materiais como aços e ligas de alto desempenho, em especial o titânio, tem interessado a industria. A metodologia utilizada nesta tese para avaliar o processamento por atrito linear, consistiu na execução de ensaios mecânicos de tração em condições mistas em chapas da liga de titânio Ti-6Al-4V. A máquina utilizada para o processamento das chapas foi um centro de usinagem CNC convencional, adaptado com dispositivos especiais. Além dos ensaios de tração em condições mistas, foram executadas medições de microdurezas nas regiões atingidas pelo processo, avaliação das microestruturas resultantes e medições de tensão residual para uma caracterização mais ampla do processo. As microestruturas na região processada são caracterizadas por uma estrutura totalmente transformada. As temperaturas de pico na região processada excederam a temperatura -transus durante o processamento e a transformação da fase + ocorreu durante a fase de resfriamento. A transformação da fase para resultou na formação de agulhas de fase nos contornos e pelo interior dos grãos da fase . Pequenas regiões com estrutura equiaxial de grãos ( globular) foram observados na zona de processamento. A abordagem dos resultados quantitativos foi feita de forma estatística, visando identificar os parâmetros de maior interação com os resultados observados. Foi identificado nesta tese que a rotação da ferramenta apresentou a maior influência nos resultados de tensão residual, microdureza e tensão de escoamento. Uma importante contribuição à modelagem da tensão de escoamento para materiais anisotrópicos é proposta, baseado em um critério de escoamento ortotrópico. Equações complementares baseadas nos testes mistos de tração e cisalhamento são propostas para modificar o modelo ortotrópico. O intuito deste modelo é indicar em que condições o material tem seu regime de escoamento atingido, podendo servir de base para simulações práticas de peças em condições similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Internet das Coisas é um novo paradigma de comunicação que estende o mundo virtual (Internet) para o mundo real com a interface e interação entre objetos. Ela possuirá um grande número de dispositivos heteregôneos interconectados, que deverá gerar um grande volume de dados. Um dos importantes desafios para seu desenvolvimento é se guardar e processar esse grande volume de dados em aceitáveis intervalos de tempo. Esta pesquisa endereça esse desafio, com a introdução de serviços de análise e reconhecimento de padrões nas camadas inferiores do modelo de para Internet das Coisas, que procura reduzir o processamento nas camadas superiores. Na pesquisa foram analisados os modelos de referência para Internet das Coisas e plataformas para desenvolvimento de aplicações nesse contexto. A nova arquitetura de implementada estende o LinkSmart Middeware pela introdução de um módulo para reconhecimento de padrões, implementa algoritmos para estimação de valores, detecção de outliers e descoberta de grupos nos dados brutos, oriundos de origens de dados. O novo módulo foi integrado à plataforma para Big Data Hadoop e usa as implementações algorítmicas do framework Mahout. Este trabalho destaca a importância da comunicação cross layer integrada à essa nova arquitetura. Nos experimentos desenvolvidos na pesquisa foram utilizadas bases de dados reais, provenientes do projeto Smart Santander, de modo a validar da nova arquitetura de IoT integrada aos serviços de análise e reconhecimento de padrões e a comunicação cross-layer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O número de acidentes de trânsito é crescente nas últimas décadas no Brasil. Uma das principais causas de acidentes em rodovias brasileiras é o excesso de velocidade, que contribui para a possibilidade de ocorrência de acidentes. As velocidades praticadas pelos motoristas são também função dos elementos geométricos que compõem a via (raio, rampa, largura da faixa, etc). A consistência de traçado não afeta a expectativa dos motoristas e garante uma operação segura. A maioria dos motoristas consegue perceber as falhas de coordenação, mas tecnicamente, por exemplo, desconhecem a origem das mesmas. Esta pesquisa apresenta como objetivo a análise de consistência de um trecho de uma determinada rodovia do país de múltiplas faixas, com elevado índice de acidentes e alto fluxo de veículos comerciais. Os pontos com maior ocorrência de acidentes foram identificados e realizaram-se medições de velocidade para elaboração de um modelo de previsão de velocidade operacional (V85) do trecho de estudo. De posse deste modelo, procedeu-se à análise de consistência através do método dos critérios de segurança, que identificou 2 seções com problemas de consistência. Por fim, verificou-se se estas seções correspondiam aos locais de maior número de acidentes: a tangente T5 precede uma curva com alto índice de acidentes (km 511+000); o local com maior concentração de acidentes (km 514) foi classificado como RAZOÁVEL.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presença da Medicina Nuclear como modalidade de obtenção de imagens médicas é um dos principais procedimentos utilizados hoje nos centros de saúde, tendo como grande vantagem a capacidade de analisar o comportamento metabólico do paciente, traduzindo-se em diagnósticos precoces. Entretanto, sabe-se que a quantificação em Medicina Nuclear é dificultada por diversos fatores, entre os quais estão a correção de atenuação, espalhamento, algoritmos de reconstrução e modelos assumidos. Neste contexto, o principal objetivo deste projeto foi melhorar a acurácia e a precisão na análise de imagens de PET/CT via processos realísticos e bem controlados. Para esse fim, foi proposta a elaboração de uma estrutura modular, a qual está composta por um conjunto de passos consecutivamente interligados começando com a simulação de phantoms antropomórficos 3D para posteriormente gerar as projeções realísticas PET/CT usando a plataforma GATE (com simulação de Monte Carlo), em seguida é aplicada uma etapa de reconstrução de imagens 3D, na sequência as imagens são filtradas (por meio do filtro de Anscombe/Wiener para a redução de ruído Poisson caraterístico deste tipo de imagens) e, segmentadas (baseados na teoria Fuzzy Connectedness). Uma vez definida a região de interesse (ROI) foram produzidas as Curvas de Atividade de Entrada e Resultante requeridas no processo de análise da dinâmica de compartimentos com o qual foi obtida a quantificação do metabolismo do órgão ou estrutura de estudo. Finalmente, de uma maneira semelhante imagens PET/CT reais fornecidas pelo Instituto do Coração (InCor) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP) foram analisadas. Portanto, concluiu-se que a etapa de filtragem tridimensional usando o filtro Anscombe/Wiener foi relevante e de alto impacto no processo de quantificação metabólica e em outras etapas importantes do projeto em geral.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento apresenta o Lyra, um novo esquema de derivação de chaves, baseado em esponjas criptográficas. O Lyra foi projetado para ser estritamente sequencial, fornecendo um nível elevado de segurança mesmo contra atacantes que utilizem múltiplos núcleos de processamento, como uma GPU ou FPGA. Ao mesmo tempo possui uma implementação simples em software e permite ao usuário legítimo ajustar o uso de memória e tempo de processamento de acordo com o nível de segurança desejado. O Lyra é, então, comparado ao scrypt, mostrando que esta proposta fornece um nível se segurança mais alto, além de superar suas deficiências. Caso o atacante deseje realizar um ataque utilizando pouca memória, o tempo de processamento do Lyra cresce exponencialmente, enquanto no scrypt este crescimento é apenas quadrático. Além disto, para o mesmo tempo de processamento, o Lyra permite uma utilização maior de memória, quando comparado ao scrypt, aumentando o custo de ataques de força bruta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Foram conduzidos dois experimentos com o intuito de se avaliar o desempenho, características de carcaça e parâmetros ruminais de bovinos Nelore recebendo dietas contendo grãos de milho flint processados de diferentes formas em associação a diferentes aditivos e níveis de FDN de silagem de milho (FDNf). No Experimento 1, 239 tourinhos (PCI=350±26,79kg) foram alojados em 40 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento dos grãos de milho (moagem fina e floculação) e diferentes aditivos (monensina sódica; 25 ppm e formulação A062 a base de virginiamicina; produto teste, não comercial, fornecido pela Ourofino Saúde Animal; nas dosagens de 17 e 25 ppm), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação aumentou o peso final, o ganho de peso diário, a eficiência alimentar, o peso da carcaça quente e tendeu a aumentar o rendimento de carcaça em comparação a moagem fina. Houve tendência de interação entre processamento e fornecimento de aditivos para a ingestão de matéria seca e ganho de peso diário. A floculação reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total, aumentou os valores de energia liquida para manutenção e ganho da dieta e o numero médio de papilas ruminais. Os aditivos aumentaram a altura, largura e área das papilas e reduziram a espessura de faixa de queratina em relação ao tratamento controle. Houve tendência das formulações a base de virginiamicina aumentarem o peso da carcaça quente dos animais em comparação com a monensina sódica, mas não em relação ao tratamento controle sem aditivo. A floculação foi mais efetiva para aumentar a digestiblidade do amido no trato total, o valor energético do milho e o desempenho dos bovinos enquanto que os aditivos não foram efetivos para aumentar o valor energético das dietas e a eficiência alimentar dos animais. No Experimento 2, 237 tourinhos (PCI=350±28,49kg) foram alojados em 32 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento (moagem grosseira e floculação) e diferentes níveis de FDNf (4; 7; 10 e 13% MS), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação tendeu a aumentar a eficiência alimentar, o peso da carcaça quente e a espessura de gordura subcutânea, reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total como também aumentou os valores de energia liquida para manutenção e para ganho das dietas. Os níveis de FDNf afetaram ingestão de matéria seca e o peso da carcaça quente independente do método de processamento. Houve tendência de aumento linear no GPD e tendência de redução quadrática na eficiência alimentar com inclusão crescente de FDNf. A inclusão de silagem de milho em dietas com alto teor de milho flint reduziu a eficiência alimentar dos animais, mas aumentou o peso da carcaça quente. A floculação aumentou o valor energético do cereal para tourinhos Nelore em dietas com alto teor de energia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A área da Tecnologia da Informação no Brasil sofre um problema latente com a falta de planejamento e atrasos constantes em projetos, determinando para os profissionais vinculados a ela um ambiente altamente desmotivador para a condução de seus trabalhos. Supõe-se que o que possa corroborar para tal problema seja a formação educacional deficitária dos indivíduos que atuam neste segmento, principalmente aqueles relacionados a cargos executivos e que estejam exercendo atividades de gestão. De acordo com teóricos como Edgard Morin (2004), em se tratando de educação fundamental, média ou superior os aspectos educacionais podem ser considerados deficitários justamente porque, ao segmentar o conhecimento, eles promovem uma alienação do indivíduo, eliminando sua capacidade criativa e reflexiva. Seria interessante, portanto, que ao avaliar a capacidade cognitiva de uma pessoa, a inteligência a ser mensurada não seja abordada através de um único espectro de conhecimento, mas através de muitos deles. A teoria das Inteligências Múltiplas, desenvolvida por Howard Gardner vem de encontro a essa necessidade, pois de acordo com o autor, a inteligência de um indivíduo deve ser mensurada através de uma gama de nove espectros: Linguística, Musical, Lógico-Matemática, Espacial, Corporal Cinestésica, Interpessoal, Intrapessoal, Naturalista e Existencial. Isto posto, este trabalho aborda uma metodologia computacional para classificação e descoberta de padrões em indivíduos, sejam esses alunos ou profissionais graduados, de uma determinada área. Além da metodologia, foi proposto um estudo de caso, considerando cursos superiores relacionados à área de Computação no Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Brasil ocupa o 3º lugar entre os maiores produtores mundiais de cerveja e o mercado consumidor vem aumentando progressivamente. Tendo em vista que o consumidor brasileiro está em busca de novos sabores e aromas para a cerveja, uma alternativa para a redução de custos explorando tais características reside no uso de adjuntos não convencionais que possam agregar valor à bebida, principalmente na obtenção de boas características sensoriais. Ainda, visando à sustentabilidade, estes adjuntos podem ser coprodutos do processamento de alimentos. O permeado concentrado de leite, um coproduto dos laticínios, é obtido através da ultrafiltração do leite, sendo composto por água, lactose e sais. Neste trabalho foi desenvolvido um processo para a produção de uma cerveja de alta fermentação (ale), utilizando o permeado concentrado de leite como adjunto de fabricação. Foram obtidas cervejas ale com a proporção malte/permeado de 55/45 e 90/10, utilizando para isso, permeado hidrolisado pela enzima ?-galactosidase e permeado não hidrolisado. A caracterização do permeado revelou que este possui três vezes mais lactose que o soro de queijo. A melhor condição de hidrólise enzimática da lactose presente no permeado foi obtida empregando-se 2,0 mL/L de ?-galactosidase em 90 minutos, alcançando 92,5% de hidrólise. Nas cervejas com permeado hidrolisado observou-se que a presença de galactose aumentou o tempo de fermentação para 168h e a atenuação real de fermentação dos mostos também foi maior em comparação as cervejas com permeado não hidrolisado, nos quais a lactose não foi fermentada. As cervejas 90/10 com permeado hidrolisado e não hidrolisado receberam as maiores notas na análise sensorial, tendo boa aceitação entre os provadores. Como não houve diferença estatística entre as duas, foi possível reduzir custo e tempo na produção da cerveja 90/10 em escala piloto (120L) por não ser necessário o processo de hidrólise enzimática. O permeado concentrado de leite mostrou-se um excelente adjunto na produção de cervejas ale e quando empregado em baixa concentração, produziu cervejas com boa aceitação sensorial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta uma alternativa ao processo de classificação do defeito da segregação central em amostras de aço, utilizando as imagens digitais que são geradas durante o ensaio de Baumann. O algoritmo proposto tem como objetivo agregar as técnicas de processamento digital de imagens e o conhecimento dos especialistas sobre o defeito da segregação central, visando a classificação do defeito de referência. O algoritmo implementado inclui a identificação e a segmentação da linha segregada por meio da aplicação da transformada de Hough e limiar adaptativo. Adicionalmente, o algoritmo apresenta uma proposta para o mapeamento dos atributos da segregação central nos diferentes graus de severidade do defeito, em função dos critérios de continuidade e intensidade. O mapeamento foi realizado por meio da análise das características individuais, como comprimento, largura e área, dos elementos segmentados que compõem a linha segregada. A avaliação do desempenho do algoritmo foi realizada em dois momentos específicos, de acordo com sua fase de implementação. Para a realização da avaliação, foram analisadas 255 imagens de amostras reais, oriundas de duas usinas siderúrgicas, distribuídas nos diferentes graus de severidade. Os resultados da primeira fase de implementação mostram que a identificação da linha segregada apresenta acurácia de 93%. As classificações oriundas do mapeamento realizado para as classes de criticidade do defeito, na segunda fase de implementação, apresentam acurácia de 92% para o critério de continuidade e 68% para o critério de intensidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los estudios sobre la vulnerabilidad social han ampliado la gestión de los riesgos naturales tradicionalmente direccionada a la amenaza natural y soluciones tecnológicas. Sin embargo la visión dominante se mantiene hegemónica sin un análisis adecuado de las causas que originan vulnerabilidad social. Este artículo propone un nuevo argumento, organizado en torno al concepto de la incuestionabilidad del riesgo, entendido como la incapacidad cultural y política de objetar el modelo socioeconómico imperante en donde residen las causas de fondo productoras de riesgo. Para concretar el concepto, a modo de ejemplo, se analizan el Plan de Actuación Municipal frente al Riesgo Sísmico de la ciudad de Torrevieja.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se estima que las viviendas subterráneas a lo largo del mundo albergan entre 40 y 60 millones de personas. Tras un análisis general de las tipologías de viviendas subterráneas, de su localización y de los factores que influyen en su desarrollo se ha introducido el análisis de la vulnerabilidad de este tipo de viviendas ante los riesgos naturales, cuestión que no ha sido estudiada exhaustivamente con anterioridad. Cabe destacar que la localización de las viviendas subterráneas a lo largo del mundo coincide en la mayor parte de los casos con regiones activas sísmicamente, por lo que se lleva a cabo una primera aproximación al estudio de la vulnerabilidad de las viviendas subterráneas frente al riesgo sísmico, teniendo como antecedente el terremoto de la región china de Shaanxi ocurrido en 1556, que afectó a grandes agrupaciones de viviendas subterráneas.