961 resultados para Partículas - Molhabilidade
Resumo:
253 p.
Resumo:
Ao contrário do período precedente de criação da chamada ciência moderna, o século XVIII parece não desempenhar um papel fundamental no desenvolvimento da física. Na visão de muitos autores, o século das luzes é considerado como uma fase de organização da mecânica que teve seu coroamento com as obras de Lagrange, imediatamente precedidas por Euler e dAlembert. Muitos autores afirmam que na formulação da mecânica racional houve uma eliminação gradual da metafísica e também da teologia e que o surgimento da física moderna veio acompanhado por uma rejeição da metafísica aristotélica da substância e qualidade, forma e matéria, potência e ato. O ponto central da tese é mostrar que, no século XVIII, houve uma preocupação e um grande esforço de alguns filósofos naturais que participaram da formação da mecânica, em determinar como seria possível descrever fenômenos através da matemática. De uma forma geral, a filosofia mecanicista exigia que as mudanças observadas no mundo natural fossem explicadas apenas em termos de movimento e de rearranjos das partículas da matéria, uma vez que os predecessores dos filósofos iluministas conseguiram, em parte, eliminar da filosofia natural o conceito de causas finais e a maior parte dos conceitos aristotélicos de forma e substância, por exemplo. Porém, os filósofos mecanicistas divergiam sobre as causas do movimento. O que faria um corpo se mover? Uma força externa? Uma força interna? Força nenhuma? Todas essas posições tinham seus adeptos e todas sugeriam reflexões filosóficas que ultrapassavam os limites das ciências da natureza. Mais ainda: conceitos como espaço, tempo, força, massa e inércia, por exemplo, são conceitos imprescindíveis da mecânica que representam uma realidade. Mas como a manifestação dessa realidade se torna possível? Como foram definidos esses conceitos? Embora não percebamos explicitamente uma discussão filosófica em muitos livros que versam sobre a mecânica, atitudes implícitas dessa natureza são evidentes no tratamento das questões tais como a ambição à universalidade e a aplicação da matemática. Galileu teve suas motivações e suas razões para afirmar que o livro da natureza está escrito em liguagem matemática. No entanto, embora a matemática tenha se tornado a linguagem da física, mostramos com esta tese que a segunda não se reduz à primeira. Podemos, à luz desta pesquisa, falarmos de uma mecânica racional no sentido de ser ela proposta pela razão para organizar e melhor estruturar dados observáveis obtidos através da experimentação. Porém, mostramos que essa ciência não foi, como os filósofos naturais pretendiam que assim fosse, obtidas sem hipóteses e convenções subjetivas. Por detrás de uma representação explicativa e descritiva dos fenômenos da natureza e de uma consistência interna de seus próprios conteúdos confirmados através da matemática, verificamos a presença da metafísica.
Resumo:
Foi estudada a influência da temperatura na desativação de catalisadores automotivos comerciais, à base de Pt/Rh e de Pd/Rh, de diferentes fabricantes. Foram empregadas técnicas de caracterização textural e físico-química como FRX, AAS, fisissorção de N2, TG-ATD, DRX, RTP, quimissorção de H2 e MEV-EDX. Os catalisadores foram avaliados nas reações de oxidação do CO e oxidação do propano, utilizando uma mistura de gases estequiométrica semelhante ao gás de exaustão. Os catalisadores denominados G e V, de Pt/Rh e Pd/Rh, respectivamente, foram envelhecidos a 900C, em condições estequiométricas, e a 1200C, em ar, por períodos de tempo determinados. Em relação ao envelhecimento a 900C, apesar da caracterização apontar melhores resultados para o catalisador G, a comparação com os catalisadores novos indicou que a extensão da desativação sofrida pelo catalisador V foi menor do que aquela sofrida pelo catalisador G. O envelhecimento oxidante a 1200C foi muito prejudicial ao desempenho de ambos os catalisadores. Os difratogramas dos catalisadores envelhecidos nestas condições mostraram fenômenos importantes de transição de fase da alumina, bem como indícios de formação de novas fases a partir do óxido misto de Ce/Zr. Os perfis de RTP mostraram uma grande queda na redutibilidade, tanto para o catalisador G como para o V após este envelhecimento, e as micrografias de MEV-EDX mostraram estruturas muito sinterizadas e vários pontos de Pd aglomerado no catalisador V. Esse catalisador também apresentou partículas de texturas incomuns. Além disso, para ambos foi verificado indícios de perda de material nas amostras calcinadas por 72h a 1200C. Com relação aos resultados de avaliação catalítica, o catalisador G apresentou um desempenho inferior ao do catalisador V. A realização de envelhecimentos em atmosfera oxidante pode justificar esse comportamento uma vez que esse procedimento promove a formação de óxidos de platina, menos ativos que a platina metálica para essas reações. Além disso, este catalisador apresentou um teor de Pt bem abaixo daqueles registrados na literatura para catalisadores automotivos comerciais. Por outro lado, para catalisadores de Pd, o envelhecimento oxidante leva à formação de PdO, mais ativo que o Pd metálico. Outra observação significativa em relação à avaliação catalítica foi o fato de o catalisador G novo ter apresentado uma atividade muito baixa, especialmente para o propano, que tendeu a aumentar com o envelhecimento térmico. Foi sugerido que este catalisador precisaria de uma ativação térmica, a qual o catalisador V parece ter sido submetido durante a fabricação, pois há indícios da ocorrência de certo desgaste térmico neste catalisador novo, como mostrados pelos resultados de fisissorção de N2, DRX, TG-ATD, RTP e MEV-EDX. Foi também mostrado que os resultados de quimisorção de H2, apesar de não poderem ser usados na determinação da dispersão metálica, apresentaram uma tendência de correlação entre o consumo de H2 e o desempenho catalítico expresso como T50 ou T20. Observa-se um aumento na atividade catalítica quando a quantidade de H2 dessorvido (DTP-H2) aumenta. Concluindo, o envelhecimento térmico mostrou ser prejudicial ao desempenho do catalisador comercial, principalmente para situações drásticas como o envelhecimento realizado a 1200C em condições oxidantes
Resumo:
Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.
Resumo:
Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Ensaio não destrutivo é uma ferramenta essencial quando um equipamento, dispositivo ou componente não pode ser submetido a procedimentos destrutivos ou invasivos devido a razões de segurança, alto custo ou outras restrições físicas ou logísticas. Dentro deste quadro radiografias por transmissão com raios gama e nêutrons térmicos são técnicas singulares para inspecionar um objeto e desvendar sua estrutura interna devido à capacidade de atravessar uma vasta gama de materiais utilizados na indústria. Grosso modo, raios gama são mais atenuados por materiais pesados enquanto nêutrons térmicos são mais atenuados por materiais mais leves, tornando-as ferramentas complementares. Este trabalho apresenta os resultados obtidos na inspeção de vários componentes mecânicos, através da radiografia por transmissão com nêutrons térmicos e raios gama. O fluxo de nêutrons térmicos de 4,46x105 n.cm-2.s-1 disponível no canal principal do reator de pesquisa Argonauta do Instituto de Engenharia Nuclear foi usado como fonte para as imagens radiográficas com nêutrons. Raios dekeV emitidos pelo 198Au, também produzido no reator, foram usados como fonte de radiação para radiografias . Imaging Plates, especificamente produzidos para operar com nêutrons térmicos ou com raios X, foram empregados como detectores e dispositivos de armazenamento e captação de imagens para cada uma dessas radiações. Esses dispositivos exibem varias vantagens quando comparados ao filme radiográfico convencional. Com efeito, além de maior sensibilidade e serem reutilizáveis não são necessários câmaras escuras e processamento químico para a revelação. Em vez disso, ele é lido por um feixe de laser que libera elétrons armadilhados na rede cristalina durante a exposição à radiação, fornecendo uma imagem final digital. O desempenho de ambos os sistemas de aquisição de imagens, assim constituído, foi avaliado com respeito à sensibilidade, resolução espacial, linearidade e range dinâmico, incluído uma comparação com sistemas radiográficos com nêutrons empregando filmes e folhas de gadolínio como conversor de nêutrons em partículas carregadas. Além desta caracterização, diversos equipamentos e componentes foram radiografados com ambos os sistemas visando-se avaliar suas capacidades de desvendar a estrutura interna desses objetos e detectar estruturas e estados anormais. Dentro desta abordagem, uma neutrongrafia detectou a presença de material cerâmico remanescente empregado como molde no processo de fabricação nos canais de refrigeração de uma aleta do estator de uma turbina tipo turbo-fan, que deveria estar livre desse material. O reostato danificado de um sensor de pressão automotivo, foi identificado por neutrongrafia, embora nesse caso a radiografia também conseguiu realizar essa tarefa com melhor resolução, corroborando assim as curvas de resolução espacial obtidas na caracterização dos dois sistemas. A homogeneidade da distribuição do material encapsulado em uma gaxeta explosiva de chumbo utilizada na indústria aeroespacial foi igualmente verificada por neutrongrafia porque esse metal é relativamente transparente para nêutrons, mas suficientemente opaco para o explosivo rico em hidrogênio. Diversos outros instrumentos e componentes tais como variômetro, altímetro, bússola aeronáutica, injetor automotivo de combustível, foto-camera, disco rígido de computador, motor de passo, conectores eletrônicos e projéteis foram radiografados com ambos os sistemas visando avaliar suas habilidades em desvendar diferentes peculiaridades em função do agente interrogador.
Resumo:
Partículas nanoestruturadas têm sido amplamente utilizadas como carga de reforço em matrizes elastoméricas, sendo substitutos eficazes das cargas convencionais, já consagradas, como o negro de fumo, mica, sílica. Em especial, as argilas têm mostrado grande potencial ao que se refere a melhor dispersão na matriz polimérica, em função de sua elevada razão de aspecto. Dentro do vasto universo de argilominerais, as argilas aniônicas, também conhecidas hidróxido duplo lamelar (HDL), apresentam como vantagem a possibilidade de ser projetada estruturalmente para as mais diversas finalidades, ao se modificar os ânions ou os cátions, ou até mesmo combiná-los na estrutura lamelar. E dentre os métodos existentes para se preparar compósitos a base de elastômero/argila, a co-coagulação do látex, é uma forma bastante eficaz e economicamente viável, uma vez que a borracha obtida após processo de coagulação já contém a carga incorporada. Este trabalho se dedicou a avaliar o processo de co-coagulação do látex de NBR e HDL, visando a obtenção de nanocompósitos. Para tanto HDL de composição Mg/Al-CO3 foi modificado com ânions DS, DBS e ST e foram preparadas suspensões aquosas, utilizando como ferramentas de dispersão ultraturrax e ultrassom de ponteira. As variáveis de processo avaliadas foram tipo e teor de HDL, tempo de mistura látex/suspensão aquosa de HDL, quantidade de coagulante e velocidade de agitação. Por fim, os coágulos obtidos foram formulados para avaliar a influência dos HDL na cinética de vulcanização e também para determinação das propriedades mecânicas convencionais. Os resultados obtidos comprovaram que a metodologia de dispersão de hidrotalcita ao látex nitrílico de modo prévio ao processo de coagulação é uma alternativa viável para a obtenção de nanocompósitos. O uso do ultrassom de ponteira como ferramenta na dispersão aquosa de HDL contribuiu para maior estabilidade da suspensão e o ajuste nos parâmetros do sistema de coagulação, levaram a obtenção de grumos uniformes do ponto de vista macroscópico e microscópico. As micrografias dos coágulos não vulcanizados obtidas por MEV-FEG confirmaram as informações apuradas a partir dos difratogramas de raios-X que apontou a formação de um sistema parcialmente esfoliado, em função da ausência dos picos característicos da hidrotalcita, além de indicarem a coexistência de partículas em dimensões micrométrica a nanométricas em uma mesma estrutura. A composição química do HDL, com a presença de átomos de magnésio e alumínio combinados com grupos hidroxila favoreceu a redução tanto o tempo de indução como de pré-cura. As propriedades mecânicas que se mostraram mais sensíveis ao grau de dispersão da carga foram a dureza, a deformação permanente à compressão (DPC) e o módulo de tração a 300% de deformação (E300), em especial para os compósitos contendo 10% m/m de HDL natural e modificado com estearato. A resistência à chama dos nanocompósitos de NBR-HDL vulcanizados apresentou um ligeiro aumento quando comparados à NBR pura, visto que esta é uma característica própria da hidrotalcita, decorrente da sua composição química
Resumo:
A Quebra Espontânea de Simetria (QES) tem sido discutida em muitos cenários, tendo resultados importantes na física Teórica de Partículas, sendo motivo de extensa pesquisa e com variadas aplicações. Neste trabalho, será apresentado um modelo alternativo baseado na Ação de Fujikawa usando quartetos BRST. No primeiro capítulo, todo o ferramental para a análise da QES é discutido partindo da definição em nível clássico e por fim no regime quântico, usando o conceito de ação efetiva. A técnica de quantização de campos de calibre no U(1), presente no eletromagnetismo, foi abordada, usando o cálculo dos propagadores e seus respectivos diagramas de Feynman. Foi estudado em conjunto com esse assunto, o conceito de campos fantasmas de Fadeev-Popov e Simetria-BRST. O mecanismo de Higgs é explorado em nível quântico, sendo feita um estudo dos rearranjos dos graus de liberdade do sistema. No segundo capítulo, as propriedades dos quartetos-BRST são estudadas, bem como suas considerações sobre simetria, quando aplicadas na ação de Fujikawa usando dois cenários: (i) quando a simetria não é quebrada. (ii) A simetria é quebrada. E por fim é feita uma análise sobre os graus de liberdade do sistema.
Resumo:
O objetivo deste estudo foi avaliar a resistência de união a microtração de cimentos resinosos autoadesivos a cerâmicas de zircônia policristalina. Dezoito blocos cerâmicos de zircônia 3Y-TZP (9 LAVA e 9 LAVA Plus) foram jateados com partículas de 50 m de Al2O3por 20 s com pressão de 28 psi a uma distância de 10 mm. Os blocos cerâmicos foram duplicados em resina composta (Point 4, Kerr) por moldagem com silicone. Os blocos de resina composta foram cimentados à superfície jateada da zircônia usando três diferentes cimentos resinosos autoadesivos: (1) RelyX Unicem 2 (3M ESPE); (2) SmartCem 2 (Dentsply); (3) Speedcem (Ivoclar Vivadent). Após 24 h imersos em água destilada a 37oC, os blocos cimentados foram cortados em palitos para testes de microtração,com área da interface adesiva de 1 mm2 0,2 mm, e tensionados até a fratura. Os resultados foram analisados pelo teste de análise de variância de dois fatores e pelo teste de comparações múltiplas LSD (α=0.05). As amostras fraturadas foram analisadas com microscopia eletrônica de varredura (MEV) e o modo de falha foi registrado. A topografia das superfícies cerâmicas antes e após o jateamento foi comparada por microscopia de força atômica (AFM). A resistência de união do cimento Speedcem à zircônia foi estatisticamente superior àquela reportada pelos cimentos RelyX Unicem 2 e SmartCem 2, independentemente da cerâmica usada (p<0,05). O fator cerâmica não teve influência estatística na resistência de união. A interação entre os dois fatores se mostrou significativa (p<0,05). O modo de fratura associado ao SmartCem 2 foi quase exclusivamente adesiva, enquanto oRelyX Unicem 2e o Speedcem exibiram um maior percentual de falhas mistas. Não foram observadas falhas coesivas. O AFM não revelou diferença no padrão de topografia de superfície entre as duas cerâmicas antes ou após o jateamento. Concluiu-se que o cimento Speedcem foi superior na adesão a cerâmicas de zircônia policristalina.
Resumo:
Na frota automotiva nacional, veículos movidos a diesel e biodiesel são utilizados em larga e pequena escala, respectivamente, fazendo com que haja uma preocupação com os gases da exaustão provenientes destes motores. Ao ser fabricado, o veículo passa por testes rigorosos das emissões gasosas, segundo as regras do PROCONVE. Porém, estes testes regulam apenas as substâncias químicas contidas na legislação vigente, cujos riscos à saúde humana e ao meio ambiente são conhecidos. Portanto, conhecer o maior número de componentes ainda não contemplados pela legislação, em especial metais no material particulado, é de suma importância para subsidiar futuras alterações e inclusões na lista de componentes regulados. De acordo com o tamanho das partículas do material particulado, podendo chegar a escalas nanométricas, a inalação deste material pode causar lesões graves no organismo, pois têm a capacidade de atingir órgãos internos. O estudo é baseado na amostragem do material particulado proveniente dos gases de motores alimentados com diesel e/ou biodiesel em diferentes proporções de combustível e ar ambiente com impactador em cascata; determinando metais e arsênio na atmosfera de diferentes localidades do estado do Rio de Janeiro e no material particulado dos gases de escape de motores de ônibus/caminhão (EURO III), por intermédio de abertura ácida do material coletado e da técnica analítica ICP-OES. Os resultados obtidos para motor EURO III variaram de 100 a 10000 ng m-3, com a redução de emissão conforme adição de biodiesel no diesel sendo comprovada. Porém, em todas as proporções de combustíveis empregadas, houve grande incidência de emissão de partículas em escala manométrica, sendo esse comportamento também observado nas amostragens em ar ambiente. Neste caso, teores de 1,0 a 45,0 ng m-3 evidenciaram Caxias e Madureira como locais mais poluídos dos amostrados. Ni é o metal que possui situação mais alarmante, pois em todos os tamanhos de partícula e locais amostrados, os teores deste elemento foram superiores ao permitido pela legislação internacional. A análise estatística multivariada propôs que os combustíveis B10 e B15 são quimicamente semelhantes, enquanto B5 e B20 sofrem fortes alterações no decorrer de sua combustão e a correlação de Pearson mostrou em ar ambiente, que locais com níveis próximos de poluição apresentaram similaridade nos resultados, a qualidade do ar de Madureira é afetado predominantemente pela construção civil e tráfego, a presença da Baía de Guanabara ao redor da Cidade Universitária influencia nas emissões, a refinaria em Caxias é responsável por emissões importantes de metais e no Parque Nacional de Itatiaia , ao contrário de que se supunha, não está totalmente livre de poluição
Resumo:
Apresenta-se neste trabalho um estudo sobre a largura de decaimento total do bóson de Higgs através do canal H→ ZZ → (4e, 4, 2e2). Segundo o Modelo Padrão da Física de Partículas Elementares, um bóson de Higgs com massa de 126 GeV deve ter uma largura de decaimento total ΓH = 4.15 MeV, muito abaixo da resoluções dos experimentos instalados no LHC. Isto impede uma medida direta sobre os eventos da ressonância. Recentemente foi proposto limitar ΓH a partir da relação entre a taxa de eventos observados na região da ressonância e na região off-shell. Utilizando o pacote de análise desenvolvido pela colaboração CMS obteve-se um limite de ΓH < 31.46(12.82) MeV em 95(68.3)% CL combinando os dados coletados pelo LHC em colisões pp em √s = 7 TeV (5.1fb-1) e em √s = 8 TeV (19.7fb -1).
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
Nesta dissertação consideramos duas abordagens para o tráfego de veículos: a macroscópica e a microscópica. O tráfego é descrito macroscopicamente por três grandezas físicas interligadas entre si, a saber, a velocidade, a densidade e o fluxo, descrevendo leis de conservação do número de veículos. Há vários modelos para o tráfego macroscópico de veículos. A maioria deles trata o tráfego de veículos como um fluido compressível, traduzindo a lei de conservação de massa para os veículos e requer uma lei de estado para o par velocidade-densidade, estabelecendo uma relação entre eles. Já o modelo descrito pela abordagem microscópica considera os veículos como partículas individuais. Consideramos os modelos da classe "car - following". Estes modelos baseiam-se no princípio de que o (n - 1)-ésimo veículo (denominado de "following-car") acelera em função do estímulo que recebe do n-ésimo veículo. Analisamos a equação de conservação do número de veículos em modelos macroscópicos para fluxo de tráfego. Posteriormente resolvemos esta equação através da linearização do modelo, estudando suas retas características e apresentamos a resolução do problema não linear em domínios limitados utilizando o método das características
Resumo:
As estrelas de nêutrons nascem com altas temperaturas (~ 1011 K) e durante alguns segundos sofrem um rápido resfriamento por emissão de neutrinos. O processo Urca direto é o principal mecanismo para explicar essa perda de energia. O problema do resfriamento das estrelas de nêutrons é um problema de grande interesse porque seu entendimento pode fornecer informações importantes sobre a constituição do interior da estrela. Na literatura existente até o momento, a emissividade de neutrinos é calculada considerando os núcleons como partículas não relativísticas quando considerados todos os níveis de Landau das partículas carregadas. Por outro lado, a emissividade de neutrinos para núcleons relativísticos é calculada considerando somente o primeiro nível de Landau (para campo magnético forte). Para campos magnéticos fracos, onde mais de um nível de Landau é ocupado, é usada a emissividade correspondente à do campo nulo. Neste trabalho aplicamos a teoria de Weinberg-Salan para interações fracas no cálculo da emissividade de neutrinos com e sem campo magnético presente, num cálculo totalmente relativístico para os núcleons e considerando todos os níveis de Landau. Esta é a contribuição original do trabalho. Para descrever a matéria a altas densidades, utilizamos uma teoria relativística de campo médio a temperatura zero que inclui apenas o octeto bariônico e os léptons mais leves. São apresentados os resultados para a emissividade de neutrinos, onde é evidente a ocupação dos diferentes níveis de Landau como função do campo magnético.