106 resultados para Estudo dos métodos e tempos
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
O trabalho tem como objetivo perscrutar os métodos de prova do dolo, no direito penal, a fim de avaliar se esses métodos são eficientes, de modo a determinar se é possível, enfim, a prova do dolo; investiga-se, ainda, se é necessária ou possível a mudança do próprio conceito de dolo. Na primeira parte, é apresentada a conceituação de dolo, com base nos principais autores do direito penal, com o intuito de delimitar o objeto central do estudo. Para tanto, as diversas controvérsias conceituais são analisadas em concordância com o sistema em que se inserem: escola clássica; causalismo; finalismo; funcionalismo. As demais divergências estão agrupadas em dois grandes blocos as teorias intelectivas e as teorias volitivas em conformidade com o enfoque que é dado pelos autores que defendem esta ou aquela conceituação do dolo. No cerne do trabalho, apresenta-se o método psicanalítico de aferição da consciência e da vontade humanas, para, então, realizar-se o estudo dos métodos de prova adotados no direito penal, sempre cotejado com a análise psicanalítica pertinente, a fim de proporcionar ao leitor uma visão multidisciplinar dos fenômenos subjetivos da mente. Constatar-se-á a insuficiência dos métodos de prova do dolo, no direito penal. Na terceira parte, é feito um estudo da jurisprudência brasileira, no que tange à forma como os tribunais costumam provar o dolo, com o intuito de avaliar se o discurso doutrinário da prova do dolo coaduna-se com a prática judicial. Conclui-se que há, de fato, um descompasso entre o que a doutrina entende como método viável e aquilo que, na prática, é adotado pelos tribunais.
Resumo:
Nesta Dissertação propõe-se a aplicação de algoritmos genéticos para a síntese de filtros para modular sinais de controladores a estrutura variável e modo deslizante. A modulação do sinal de controle reduz a amplitude do sinal de saída e, consequentemente, pode reduzir o consumo de energia para realizar o controle e o chattering. Esses filtros também são aplicados em sistemas que possuem incertezas paramétricas nos quais nem todas as variáveis de estado são medidas. Nesses sistemas, as incertezas nos parâmetros podem impedir que seus estados sejam estimados com precisão por observadores. A síntese desses filtros necessita da obtenção da envoltória, que é o valor máximo da norma de cada resposta impulsiva admissível no sistema. Após este passo, é sintetizado um filtro que seja um majorante para a envoltória. Neste estudo, três métodos de busca da envoltória por algoritmos genéticos foram criados. Um dos métodos é o preferido, pois apresentou os melhores resultados e o menor tempo computacional.
Resumo:
Este trabalho está inserido no campo da Geomática e se concentra, mais especificamente, no estudo de métodos para exploração e seleção de rotas em espaços geográficos sem delimitação prévia de vias trafegáveis. As atividades que poderiam se beneficiar de estudos desse tipo estão inseridas em áreas da engenharia, logística e robótica. Buscou-se, com as pesquisas realizadas nesse trabalho, elaborar um modelo computacional capaz de consultar as informações de um terreno, explorar uma grande quantidade de rotas viáveis e selecionar aquelas rotas que oferecessem as melhores condições de trajetória entre dois pontos de um mapa. Foi construído um sistema a partir do modelo computacional proposto para validar sua eficiência e aplicabilidade em diferentes casos de estudo. Para que esse sistema fosse construído, foram combinados conceitos de sistemas baseados em agentes, lógica nebulosa e planejamento de rotas em robótica. As informações de um terreno foram organizadas, consumidas e apresentadas pelo sistema criado, utilizando mapas digitais. Todas as funcionalidades do sistema foram construídas por meio de software livre. Como resultado, esse trabalho de pesquisa disponibiliza um sistema eficiente para o estudo, o planejamento ou a simulação de rotas sobre mapas digitais, a partir de um módulo de inferência nebuloso aplicado à classificação de rotas e um módulo de exploração de rotas baseado em agentes autônomos. A perspectiva para futuras aplicações utilizando o modelo computacional apresentado nesse trabalho é bastante abrangente. Acredita-se que, a partir dos resultados alcançados, esse sistema possa ajudar a reduzir custos e automatizar equipamentos em diversas atividades humanas.
Resumo:
Os estuários são ambientes altamente dinâmicos e concentram a maior parte da população mundial em seu entorno. São ambientes complexos que necessitam de uma gama de estudos. Nesse contexto, este trabalho visa contribuir para o entendimento dos estuários lagunares, tendo como objetivo comparar duas ferramentas geofísicas acústicas no mapeamento de uma porção submersa do Mar de Cananéia que está inserido no Sistema Estuarino Lagunar de Cananéia-Iguape (SP). Os equipamentos utilizados nesta pesquisa são o Sonar de Varredura Lateral e o Sistema Acústico de Classificação de Fundo RoxAnn, através da parametrização de amostras de fundo. A comparação do padrão acústico do Sonar de Varredura Lateral com as amostras de fundo da região permitiu o reconhecimento de 6 tipos distintos de padrões acústicos e a relação positiva com o diâmetro médio do grão foi de 50%. A comparação da resposta acústica do Sistema Acústico de Classificação de Fundo RoxAnn com o diâmetro médio do grão foi igualmente de 50%. Isto deve-se ao fato de que os valores produzidos pelo eco 1 e pelo eco 2 deste equipamento mostram que, por ser um mono-feixe e por analisar valores de intensidade do retorno acústico, o equipamento em questão pode responder a outros fatores ambientais que não seja somente o diâmetro médio do grão. Ao comparar a resposta acústica do Sonar de Varredura Lateral com o Sistema Acústico de Classificação de fundo RoxAnn obteve-se um resultado positivo de 93%. Isto pode ser explicado pelo fato de o Sonar de Varredura Lateral gerar uma imagem acústica do fundo. Em locais onde tem-se amostra e os valores do eco 1 e do eco 2 do Sistema Acústico de Classificação de Fundo RoxAnn são altos, pode-se associar a esses locais a influência da compactação dos sedimentos finos através da análise das imagens do Sonar de Varredura Lateral. Por meio da comparação destes dois métodos foi possível estabelecer um intervalo de valores para o eco 1 que pode ser associado ao diâmetro médio do grão. Assim, valores entre 0.170 a 0.484 milivolts podem ser associados a sedimentos finos com granulometria até areia fina. Valores entre 0.364 a 0.733 podem ser associados a sedimentos de granulometria entre areia fina a média. Valores acima de 0.805 milivolts até 1.585 milivolts podem ser associados a sedimentos mais grossos como carbonatos biodetríticos ou areias grossas. E, por fim, valores acima de 2.790 milivolts podem ser associados a afloramentos rochosos.
Resumo:
Os diamantes são minerais raros e de alto valor econômico. Estes minerais se formam em condições mantélicas, numa profundidade aproximada de 150 a 200 km e ascendem à superfície englobada em magmas alcalinos e carbonatíticos, nos kimberlitos e lamproitos (depósitos primários). No presente trabalho objetivou-se o estudo da geometria do Kimberlito Régis, o qual pertence à província alcalina do Brasil Meridional, localizado no estado de Minas Gerais, na cidade de Carmo do Paranaíba. Para este estudo foi realizada uma inversão gravimétrica 3D e uma modelagem utilizando dados de gravimetria e os resultados dos estudos de magnetometria (Menezes e La Terra, 2011) e CSAMT (La Terra e Menezes, 2012). As anomalias Bouguer e magnética foram então modeladas a partir de um resultado CSAMT, apresentando como resultado um conduto vulcânico com cerca de 2800 metros de profundidade e 200 metros de largura. Já o resultado da inversão mapeou um corpo com forma de cone invertido, apresentando contrastes de densidade negativos. A metodologia de integração de métodos geofísicos mostrou-se eficiente para estudos exploratórios de kimberlitos, apresentando rapidez e baixo custo quando comparados com os métodos tradicionais.
Resumo:
O que pode um analista diante da iminência da morte? A inserção da psicanálise no hospital coloca o analista diante de uma questão temporal: na urgência da vida, como levar em conta os tempos do sujeito do inconsciente? Freud afirma que o inconsciente é atemporal (Freud, 1915) e Lacan concebeu o tempo do sujeito como o tempo lógico (Lacan, 1945), marcado por três tempos: instante de ver, tempo para compreender e momento de concluir. A experiência radical do tempo no hospital nos leva a uma leitura de Freud com Lacan acerca dos tempos do sujeito do inconsciente, privilegiando a atemporalidade inconsciente, o a posteriori da constituição dos sintomas e o tempo lógico lacaniano. A presente dissertação tem como objetivo pesquisar a concepção de tempo para a psicanálise em Freud e Lacan, em articulação com a experiência clínica em hospital geral (Hospital Universitário Pedro Ernesto) a partir do atendimento nas urgências.
Resumo:
Esta tese tem como objetivo geral investigar conceitos, agentes e significações da ética publicitária que caracterizam os atuais tempos hipermodernos. Para tanto, os seguintes objetivos específicos foram traçados: levantar o que as organizações de auto-regulamentação do setor e os profissionais do mercado (não pertencentes a tais instituições) definem como ética publicitária; comparar tais olhares com princípios éticos hipermodernos ligados principalmente ao mercado e com reflexões de estudiosos sobre o tema, e realizar, ao final, um estudo comparativo entre os cenários brasileiro e espanhol de resultados obtidos. Os organismos estudados no Brasil e na Espanha (Madrid) foram, respectivamente, o CONAR Conselho Nacional de Auto-Regulamentação Publicitária, e a AUTOCONTROL Asociación para la Autorregulación de la Comunicación Comercial, e os profissionais abordados consistiram em publicitários e profissionais de marketing de empresas escolhidos segundo os critérios de acessibilidade, volume de anúncios veiculados sob sua criação/responsabilidade, e indicações de entrevistados. Os objetivos citados foram alcançados por meio de dois abrangentes conjuntos de iniciativas, a saber: 1) entrevistas com 63 pessoas (além dos diretores das organizações), estando entre elas, publicitários das áreas de criação e atendimento/planejamento de agências de propaganda, profissionais de marketing de empresas de setores diversos, e integrantes do Conselho de Ética do CONAR e órgão correlato na AUTOCONTROL. Como resultado geral desta pesquisa, pode-se dizer, entre outros, que, embora se apregoe atualmente que a ética hipermoderna está associada a um vazio ético ou a uma ética privada, a qual chega inclusive a distanciar-se do significado original do termo, ambos os organismos estudados demonstraram em vários momentos contrariar tais teorias, mesmo sendo eles concebidos e mantidos pelo próprio mercado. Apesar disso, nota-se, tanto nestas organizações, quanto entre os profissionais entrevistados, principalmente brasileiros, alguns indicadores que parecem refletir tais visões mais pessimistas ou que talvez dificultem o surgimento de uma postura mais ética, afastando-se, inclusive, de preceitos específicos de uma ética hipermoderna aplicada diretamente ao mercado. O cenário parece mais favorável no contexto espanhol, onde foram encontrados um maior número de instituições (além da AUTOCONTROL), documentos normativos e profissionais dedicados a defender a ética publicitária num sentido mais profundo do que somente combatendo a propaganda enganosa quanto a informações técnicas sobre os produtos ofertados.
Resumo:
Com cada vez mais intenso desenvolvimento urbano e industrial, atualmente um desafio fundamental é eliminar ou reduzir o impacto causado pelas emissões de poluentes para a atmosfera. No ano de 2012, o Rio de Janeiro sediou a Rio +20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, onde representantes de todo o mundo participaram. Na época, entre outros assuntos foram discutidos a economia verde e o desenvolvimento sustentável. O O3 troposférico apresenta-se como uma variável extremamente importante devido ao seu forte impacto ambiental, e conhecer o comportamento dos parâmetros que afetam a qualidade do ar de uma região, é útil para prever cenários. A química das ciências atmosféricas e meteorologia são altamente não lineares e, assim, as previsões de parâmetros de qualidade do ar são difíceis de serem determinadas. A qualidade do ar depende de emissões, de meteorologia e topografia. Os dados observados foram o dióxido de nitrogênio (NO2), monóxido de nitrogênio (NO), óxidos de nitrogênio (NOx), monóxido de carbono (CO), ozônio (O3), velocidade escalar vento (VEV), radiação solar global (RSG), temperatura (TEM), umidade relativa (UR) e foram coletados através da estação móvel de monitoramento da Secretaria do Meio Ambiente (SMAC) do Rio de Janeiro em dois locais na área metropolitana, na Pontifícia Universidade Católica (PUC-Rio) e na Universidade do Estado do Rio de Janeiro (UERJ) no ano de 2011 e 2012. Este estudo teve três objetivos: (1) analisar o comportamento das variáveis, utilizando o método de análise de componentes principais (PCA) de análise exploratória, (2) propor previsões de níveis de O3 a partir de poluentes primários e de fatores meteorológicos, comparando a eficácia dos métodos não lineares, como as redes neurais artificiais (ANN) e regressão por máquina de vetor de suporte (SVM-R), a partir de poluentes primários e de fatores meteorológicos e, finalmente, (3) realizar método de classificação de dados usando a classificação por máquina de vetor suporte (SVM-C). A técnica PCA mostrou que, para conjunto de dados da PUC as variáveis NO, NOx e VEV obtiveram um impacto maior sobre a concentração de O3 e o conjunto de dados da UERJ teve a TEM e a RSG como as variáveis mais importantes. Os resultados das técnicas de regressão não linear ANN e SVM obtidos foram muito próximos e aceitáveis para o conjunto de dados da UERJ apresentando coeficiente de determinação (R2) para a validação, 0,9122 e 0,9152 e Raiz Quadrada do Erro Médio Quadrático (RMECV) 7,66 e 7,85, respectivamente. Quanto aos conjuntos de dados PUC e PUC+UERJ, ambas as técnicas, obtiveram resultados menos satisfatórios. Para estes conjuntos de dados, a SVM mostrou resultados ligeiramente superiores, e PCA, SVM e ANN demonstraram sua robustez apresentando-se como ferramentas úteis para a compreensão, classificação e previsão de cenários da qualidade do ar
Resumo:
O setor de saúde pública convive com uma constante escassez de recursos combinada com uma necessidade crescente de investimentos em tecnologia e inovação. Portanto, é necessário que os gestores públicos de saúde busquem maneiras de maximizar o uso destes recursos orçamentários escassos. Uma das alternativas é implementar estudos sobre custos, que possibilitem ao gestor exercer o controle, o combate ao desperdício e o planejamento dos investimentos futuros. No entanto, na área governamental, existem outros grupos, além do gestor, que têm interesse em conhecer as informações de custos do setor de saúde. Esses grupos são chamados pela teoria da administração de Stakeholders. Cada stakeholder, tais como médicos, pacientes, fornecedores, sociedade entre outros podem demandar informações distintas de custos. Por este motivo, o objetivo deste trabalho é investigar qual o método de custeio que melhor se adequa as necessidades dos diferentes stakeholders de um hospital público. Para tanto, elaborou-se uma pesquisa bibliográfica que abordasse os métodos de custeio por absorção, custeio variável e custeio baseado em atividades, que são os métodos mais debatidos pela literatura contábil. Dessa forma, com objetivo de responder a questão de pesquisa, o presente trabalho desenvolve um cenário hipotético de um hospital universitário público, no qual estão identificados os seus stakeholders e suas respectivas necessidades de informações de custo. Como resultado das análises, observa-se que cada um destes stakeholders apresenta um método de custeio, ou uma combinação de dois destes, que melhor se adequa as suas necessidades de informação de custos.
Resumo:
A presente pesquisa objetiva identificar o estado de compatibilidade entre os instrumentos contábeis de mensuração de ativos intangíveis e aqueles utilizados para estabelecer o valor econômico de atletas de futebol. Para isso, foi realizado um estudo de caso único em uma empresa de consultoria que realiza tal avaliação de atleta, com intuito de aprofundar na pesquisa de forma exploratória. As técnicas utilizadas para dar suporte à pesquisa foram análise documental e pesquisa semiestruturada, que contribuíram com os objetivos específicos deste estudo, além da análise bibliográfica. Como resultado de pesquisa pode-se verificar um alinhamento entre os indicadores de avaliação de atletas de futebol utilizados pela empresa objeto desse estudo e aqueles utilizados pelos métodos contábeis para avaliação dos ativos intangíveis com foco no capital humano. Dessa forma, o resultado apresentou a identificação de dez indicadores de alinhamentos, evidenciando uma padronização dos métodos e contribuindo com a redução da subjetividade na forma de avaliar os ativos intangíveis de uma maneira geral.
Resumo:
Este trabalho pretende verificar o alinhamento entre os indicadores de inovação utilizados pelos métodos Scorecard de mensuração dos ativos intangíveis e pelas agências governamentais nacionais e internacionais com aqueles utilizados pelos fundos de capital de risco na cidade do Rio de Janeiro, para investimento em empresas spin-offs acadêmicas incubadas. A metodologia constou de uma revisão bibliográfica sobre os métodos de mensuração e valoração dos ativos intangíveis, indicadores de inovação propostos por agências governamentais nacionais e internacionais e fundos de capital de risco que atuam na cidade do Rio de Janeiro. Além de serem aplicados questionários nas empresas de fundos de capital de risco desta cidade. Foram levantados diversos métodos Scorecards na literatura com seus indicadores, além dos indicadores de inovação de agências governamentais nacionais e internacionais. Adicionando-se a isso, identificou-se o foco de investimento, o processo de seleção, o método utilizado de avaliação de oportunidades de investimento e indicadores relevantes para as empresas de capital de risco da cidade do Rio de Janeiro. Observou-se que os ativos intangíveis, entre eles os de inovação, não são avaliados individualmente. A informação obtida com as empresas que receberão investimentos dessas empresas de capital de risco é utilizada para se entender a origem dos fluxos de caixa projetados e os principais fatores de risco. E esses dados aplicados ao método do fluxo de caixa descontado permitem que se estime o valor da empresa. Pela vasta experiência dos gestores dos fundos de capital de risco com micro e pequenas empresas inovadoras, espera-se que o estudo das práticas deste segmento traga importantes reflexões para as discussões relativas aos ativos intangíveis e a inovação.
Resumo:
A compulsão alimentar está associada a diversas doenças, entre elas, a obesidade.Com o intuito de pesquisar a diferença hormonal ligada ao controle da fome e da saciedade associada ao episódio de compulsão alimentar (ECA), avaliou-se a concentração sérica dos hormônios que regulam este processo em mulheres adultas. Métodos: O estudo experimental foi composto de 3 grupos (n=23), sendo: grupo Eutrófico (GE;n=8), grupo obeso sem ECA (GO;n=7) e obesas com ECA (ECA;n=8). Todas as mulheres que participaram do estudo freqüentavam os serviços de saúde da Policlínica Piquet Carneiro. Foram dosados os hormônios: Grelina Total, Glucagon, Adiponectina, Amilina, Peptídeo C, GLP-1, Insulina e Leptina séricos nos tempos: jejum, 15 e 60 minutos após a ingestão da refeição fornecida. As refeições ingeridas foram controladas em energia, 55% carboidratos, 15% proteínas, 30% lipídios. Os dados foram analisados como valores médios por grupo em software SAS, considerando p<0,05. Resultados: A idade das mulheres estudadas variou de 32 a 50 anos. A concentração de adiponectina encontrada, que é inversamente proporcional a adiposidade, foi significativamente menor no grupo ECA em relação aos demais grupos (p=0,01). Em relação à leptina, o grupo GO apresentou concentração maior em relação aos demais grupos (p<0,0001). Já, a concentração de grelina encontrada foi significativamente menor no grupo ECA em relação aos demais grupos (p=0,02). Foram encontradas concentrações significativamente maiores de insulina no grupo GO em relação aos demais grupos (p=0,04). A concentração de amilina encontrada foi significativamente maior no grupo GO em relação aos outros grupos (p=0,01). A concentração de GLP-1 encontrada no grupo GO foi maior em média, porém esta diferença não foi estatisticamente significativa entre os grupos (p=0,25). A concentração de Peptídeo C encontrada no grupo GO foi maior em relação aos outros grupos (p=0,003). Apesar da concentração de Glucagon no grupo ECA ser maior em relação aos demais grupos, estes valores não eram diferentes estatisticamente (p=0,13). Nossos achados mostraram que obesas ECA tem perfil hormonal diferente de obesas sem ECA. A baixa concentração de grelina do grupo de obesas ECA e a alta concentração de insulina, peptídeo C e amilina nas obesas com e sem ECA pode estar relacionado com o aumento da ingestão alimentar e com o desequilíbrio energético.
Resumo:
O estudo dos diferentes fenômenos de separação tem sido cada vez mais importante para os diferentes ramos da indústria e ciência. Devido à grande capacidade computacional atual, é possível modelar e analisar os fenômenos cromatográficos a nível microscópico. Os modelos de rede vêm sendo cada vez mais utilizados, para representar processos de separação por cromatografia, pois através destes pode-se representar os aspectos topológicos e morfológicos dos diferentes materiais adsorventes disponíveis no mercado. Neste trabalho visamos o desenvolvimento de um modelo de rede tridimensional para representação de uma coluna cromatográfica, a nível microscópico, onde serão modelados os fenômenos de adsorção, dessorção e dispersão axial através de um método estocástico. Também foram utilizadas diferentes abordagens com relação ao impedimento estérico Os resultados obtidos foram comparados a resultados experimentais. Depois é utilizado um modelo de rede bidimensional para representar um sistema de adsorção do tipo batelada, mantendo-se a modelagem dos fenômenos de adsorção e dessorção, e comparados a sistemas reais posteriormente. Em ambos os sistemas modelados foram analisada as constantes de equilíbrio, parâmetro fundamental nos sistemas de adsorção, e por fim foram obtidas e analisadas isotermas de adsorção. Foi possível concluir que, para os modelos de rede, os fenômenos de adsorção e dessorção bastam para obter perfis de saída similares aos vistos experimentalmente, e que o fenômeno da dispersão axial influência menos que os fenômenos cinéticos em questão
Resumo:
O objetivo deste estudo foi comparar os resultados da microinfiltração marginal obtidos por diferentes meios de aquisição de imagens e métodos de mensuração da penetração de prata em restaurações de resina composta classe V, in vitro. Dezoito pré-molares humanos hígidos, recém extraídos, foram divididos em três grupos, de acordo com o tipo de instrumento para preparação cavitária utilizado. Grupo 1: ponta diamantada número 3100, em alta rotação. Grupo 2: broca carbide número 330, em alta rotação. Grupo 3: ponta CVDentus código 82137, em aparelho de ultrassom. Foram realizados preparos cavitários padronizados (3x4x2mm) classe V nas faces vestibular e lingual de todos os dentes, com margens oclusais em esmalte e cervicais em dentina/cemento. As cavidades foram restauradas com o sistema adesivo Solobond M (VOCO) e resina composta Grandio (VOCO), a qual foi inserida e fotoativada em três incrementos. Os corpos de prova ficaram imersos em água destilada por 24h a 37oC; receberam acabamento e polimento com discos SofLex (3M) e foram novamente armazenados em água destilada, por sete dias. Posteriormente, as superfícies dentárias foram coberta com duas camadas de esmalte para unhas vermelho, exceto as áreas adjacentes às restaurações. Os espécimes ficaram imersos em solução aquosa de nitrato de prata a 50% por 24h e em solução fotorreveladora por 2h e foram seccionados no sentido vestíbulo-lingual, passando pelo centro das restaurações, com disco diamantado em baixa rotação. As amostras foram polidas em politriz horizontal e analisadas por diferentes métodos. À extensão da microinfiltração foi atribuído escores de 0 a 3 através de análises por meio de estereomicroscópio tradicional e com leds e microscópio ótico. As imagens obtidas na lupa com leds e no microscópio ótico tiveram as áreas infiltradas medidas através do software AxioVision. O teste χ2 de McNemar-Bowker revelou concordância estatística entre estereomicroscópio tradicional e o com leds (p=0,809) durante análises semiquantitativas. Porém, houve diferenças significantes entre microscópio ótico e estereomicroscópios (p<0,001). Houve boa correlação entre análises semiquantitativas e quantitativas de acordo com o teste de Spearmann (p<0,001). O teste de Kruskall-Wallis não revelou diferenças estatisticamente significantes (p=0,174) entre os grupos experimentais na análise quantitativa por microscópio ótico, em esmalte. Ao contrário do que se observa com a mesma em lupa (p<0,001). Conclui-se que o método de atribuição de escores comumente aplicado com a lupa nos estudos da microinfiltração marginal é uma opção confiável para análise da microinfiltração.
Resumo:
Neste trabalho, é apresentada uma formulação apropriada à análise de guias de ondas eletromagnéticos, cobrindo do espectro de microondas até o da óptica. Nas regiões a partir do ultravioleta, os comprimentos de onda são equivalentes às dimensões atômicas e a formulação necessita de uma abordagem quântica, que não é considerada neste estudo. A formulação é fundamentada nos métodos vetorial magnético e dos elementos finitos (MEF), em meios não homogêneos, anisotrópicos e não dissipativos, embora a dissipação possa ser facilmente introduzida na análise. Deu-se preferência à formulação com o campo magnético em vez do elétrico, pelo fato do campo magnético ignorar descontinuidades elétricas. Ele é contínuo em regiões de permeabilidade homogênea, propriedade dos meios dielétricos em geral ( = 0), independente da permissividade dos respectivos meios, conquanto os campos elétricos sejam descontínuos entre regiões de permissividades diferentes.