930 resultados para Solução solitônica
Resumo:
As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.
Resumo:
A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.
Resumo:
A modelagem orientada a agentes surge como paradigma no desenvolvimento de software, haja vista a quantidade de iniciativas e estudos que remetem à utilização de agentes de software como solução para tratar de problemas mais complexos. Apesar da popularidade de utilização de agentes, especialistas esbarram na falta de universalidade de uma metodologia para construção dos Sistemas Multiagentes (MAS), pois estas acabam pecando pelo excesso ou falta de soluções para modelar o problema. Esta dissertação propõe o uso de uma Ontologia sobre Metodologias Multiagentes, seguindo os princípios da Engenharia de Métodos Situacionais que se propõe a usar fragmentos de métodos para construção de metodologias baseados na especificidade do projeto em desenvolvimento. O objetivo do estudo é sedimentar o conhecimento na área de Metodologias Multiagentes, auxiliando o engenheiro de software a escolher a melhor metodologia ou o melhor fragmento de metodologia capaz de modelar um Sistema Multiagentes.
Resumo:
O município do Rio de Janeiro, desde sua fundação luta com o grave problema de abastecimento de água. Com o passar do tempo todas as pequenas captações no entorno da cidade foram exauridas tanto em termos de quantidade como em qualidade, afetadas pela poluição decorrente do lançamento de efluentes in natura. Solução foi a busca por novas fontes de abastecimento em outros municípios. Atualmente 80% (oitenta por cento) do abastecimento da região metropolitana do Rio de Janeiro, RMRJ, é proveniente de uma única fonte: o rio Guandu. Isto foi possível devido à transposição da bacia do rio Paraíba do Sul para o rio Guandu ocorrida na década de 50. Esta fonte essencial de abastecimento, onde foi construída a maior Estação de Tratamento de Água do mundo - ETA Guandu - está à beira da exaustão. Somente uma pequena parcela de água bruta foi captada e tratada nesta última década. Visando minimizar o grave problema que já se apresenta e enquanto investimentos em novas alternativas não forem alcançados, o consumo com responsabilidade e sustentabilidade passa a ser a tônica da discussão. Neste contexto, as áreas de baixa renda do município com suas 801 favelas e mais de 1.500 loteamentos irregulares representando em 2010 aproximadamente 1/3 (um terço) da população total, consumindo de 10% a 15% de toda a produção de água tratada da região metropolitana deve ser permanentemente estimulada a contribuir com esta redução de consumo. Estudos apresentados nesta dissertação em três metodologias distintas apontam para um consumo acima da média nacional deste mesmo perfil de população. Os resultados obtidos indicam a necessidade real da redução de consumo observando, entretanto que este é um trabalho extremamente árduo e difícil uma vez que exige mudança de hábitos e a envolvimento de todos, desde a população até a Companhia de Saneamento local.
Estudo da implementação da política nacional de transporte de massa da Colômbia: o caso Barranquilla
Resumo:
Partindo do princípio de que o acesso das populações aos meios de transporte é um elemento essencial para sua participação nas dinâmicas econômicas e sociais, esta pesquisa tem por objetivo analisar a transformação da mobilidade urbana ocorrida na Colômbia nos últimos quatorze anos. O governo colombiano, a partir do ano 2000, promoveu o sistema BRT (bus rapid transit) como solução para os tradicionais problemas de mobilidade urbana do país. Essa política fundamentou-se na experiência do sistema Transmilenio de Bogotá, primeiro BRT da Colômbia e reconhecido internacionalmente como uma alternativa de qualidade e baixo custo, equiparável aos sistemas sobre trilhos. O trabalho estuda a política que propagou o modelo Transmilenio, focando-se principalmente na réplica que este teve em uma das principais cidades da Colômbia, Barranquilla. Analisam-se os principais delineamentos, os atores que têm influência na tomada de decisões sobre mobilidade urbana e seus mecanismos de ação. Tal percurso é a base para, finalmente, compreendermos a realidade hoje vivenciada pela população de Barranquilla. Destaca-se a influência do Banco Mundial como gerador de política internacional de mobilidade urbana e seu papel no financiamento dos sistemas de massa colombianos
Resumo:
Ante a crescente utilização dos meios eletrônicos como forma de viabilizar o comércio de produtos e serviços além das fronteiras estatais o presente estudo tem como escopo identificar os desafios oriundos do embate entre a realidade cibernética e o direito internacional contemporâneo, pontuando, de forma crítica, as soluções descortinadas pela sociedade internacional. Isto porque as questões de direito internacional, já conflituosas no âmbito do comércio internacional tradicional, se mostram ainda mais subjetivas no peculiar ambiente virtual, em regra desmaterializado e a desterritorializado. Tais características e peculiaridades refletem na identificação da jurisdição e da lei aplicável no contrato eletrônico, nas soluções para o combate do cibercrime e na solução alternativa de conflitos, ademais de outros temas que foram possíveis de serem abordados neste estudo. Para tanto é proposto um exame das soluções até então desenvolvidas para a regularização e/ou padronização das condutas no âmbito do comércio internacional por via eletrônica, colacionando a normativa e a jurisprudência implementadas e/ou em desenvolvimento na área.
Resumo:
Este trabalho estuda a transferência de calor por condução considerando a condutividade térmica como uma função constante por partes da temperatura. Esta relação, embora fisicamente mais realista que supor a condutividade térmica constante, permite obter uma forma explícita bem simples para a inversa da Transformada de Kirchhoff (empregada para tratar a não linearidade do problema). Como exemplo, apresenta-se uma solução exata para um problema com simetria esférica. Em seguida, propôe-se uma formulação variacional (com unicidade demonstrada) que introduz um funcional cuja minimização é equivalente à solução do problema na forma forte. Finalmente compara-se uma solução exata obtida pela inversa da Transformada de Kirchhoff com a solução obtida via formulação variacional.
Resumo:
Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.
Resumo:
O desenvolvimento de software livre de Jacobiana para a resolução de problemas formulados por equações diferenciais parciais não-lineares é de interesse crescente para simular processos práticos de engenharia. Este trabalho utiliza o chamado algoritmo espectral livre de derivada para equações não-lineares na simulação de fluxos em meios porosos. O modelo aqui considerado é aquele empregado para descrever o deslocamento do fluido compressível miscível em meios porosos com fontes e sumidouros, onde a densidade da mistura de fluidos varia exponencialmente com a pressão. O algoritmo espectral utilizado é um método moderno para a solução de sistemas não-lineares de grande porte, o que não resolve sistemas lineares, nem usa qualquer informação explícita associados com a matriz Jacobiana, sendo uma abordagem livre de Jacobiana. Problemas bidimensionais são apresentados, juntamente com os resultados numéricos comparando o algoritmo espectral com um método de Newton inexato livre de Jacobiana. Os resultados deste trabalho mostram que este algoritmo espectral moderno é um método confiável e eficiente para a simulação de escoamentos compressíveis em meios porosos.
Resumo:
O objetivo do estudo foi verificar ex vivo a penetração de duas substâncias irrigantes hipoclorito de sódio 5% e Chlor-Xtra (Vista Dental Products, Racine, WI) através da adição de corante em canais simulados de dentes clarificados. Sessenta caninos inferiores unirradiculares humanos foram utilizados. As raízes foram seccionados em 16mm e instrumentadas com limas rotatórias do sistema Protaper até a F2 no comprimento de trabalho de 15mm. As amostras foram submetidas ao processo de clarificação para ficarem transparentes e durante o processo foram criados os canais simulados no terço apical. As raízes foram divididas aleatoriamente em três grupos ( NaOCl 5%, Chlor-Xtra e água) contendo 20 espécime por grupo. As amostras foram irrigadas com 1,5mL de solução contraste( tinta chinesa junto com a solução irrigante do respectivo grupo). E cada amostra foi fotografada e analisada. Os dados foram analisados estatisticamente pelos testes Kruskal-Wallis e Student-Neuman-Keuls. Não houve diferença estatística entre as substâncias irrigantes testadas (p>0,05). A partir da análise dos dados, foi possível concluir que apesar da presença de agentes surfactantes na solução irrigante de Chlor-Xtra não houve uma melhor penetrabilidade nos canais simulados em comparação ao hipoclorito de sódio(NaOCl).
Resumo:
Resinas macias para reembasamento de próteses são largamente utilizadas após cirurgias para estabilizarem a prótese e condicionarem o tecido, aguardando a completa cicatrização. É importante que o material não seja facilmente colonizado por biofilme oral e se possível, evite a contaminação do sítio cirúrgico. Objetivou-se avaliar o efeito da incorporação de clorexidina às resinas acrílicas macias para o reembasamento de próteses totais, através de análises de liberação, citotoxicidade e efeito inibitório de um biofilme de C. albicans. Foram confeccionados corpos de provas (CDPs) com as resinas Trusoft e Coe-soft, com incorporação de 0%, 0,5%, 1,0% e 2,0% de clorexidina, totalizando 8 grupos. A liberação de clorexidina foi avaliada através da mensuração da mudança na densidade óptica da solução de armazenamento, na qual ficaram imersos os CDPs, por espectrometria UV, a cada 48 horas, durante 40 dias. A citotoxicidade celular foi avaliada em fibroblastos (linhagem L929), que ficaram 24 horas em contato com meio de cultura no qual os CDPs ficaram previamente imersos, pela técnica de absorção de corante vermelho neutro após 24, 48 e 72 horas e semanalmente até o 28 dia. E, por fim, a atividade antifúngica contra a C. albicans (ATCC 10231) foi avaliada de duas maneiras: (1) teste de difusão em ágar, no qual os CDPs foram colocados em placas de BHI previamente inoculadas com C. albicans, com medição do halo de inibição após 48 horas de incubação a 37C; (2) a avaliação da inibição da formação de um biofilme de C. albicans sobre a superfície dos CDPs pela quantificação por metil tetrazólio (MTT) a cada 48 horas, durante 22 dias, com leitura feita em espectrofotômetro de UV. Os dados obtidos foram inseridos no programa SigmaStat (versão 3.1, USA) para realizar as análises estatísticas. As diferenças estatísticas foram determinadas por análises de variâncias do tipo ANOVA e todos os procedimentos para comparações múltiplas pareadas foram feitos utilizando-se o método Holm-Sidak, com nível de significância global igual a 0,05. A clorexidina adicionada às resinas testadas foi capaz de ser liberada para o meio de armazenagem, proporcionalmente à quantidade de clorexidina incorporada, porém com diferentes cinéticas de liberação entre as resinas, visto que a Trusoft libera até 71% do total de clorexidina liberada nas primeiras 48 horas e a Coe-soft, até 44%. Ambas as resinas com incorporação de clorexidina apresentaram efeito citotóxico adicional, se comparadas às resinas sem clorexidina, porém para a Coe-soft não houve diferença estatística dos valores, apenas para a Trusoft (p<0,001). Ocorreu formação de halo de inibição proporcionalmente às concentrações de resinas adicionadas, com maiores halos para a resina Trusoft (p<0,001), e sem formação de halo para as resinas sem clorexidina; a inibição da formação de biofilme, realizada somente com a resina Coe-soft, mostrou total inibição durante 8, 12 e 16 dias, para a incorporação de 0,5%, 1,0% e 2,0% respectivamente, sendo uma diminuição estatisticamente significativa (p<0,001) em relação à resina sem incorporação de clorexidina, que não apresentou inibição do biofilme.
Resumo:
Esta dissertação objetiva descrever e analisar criticamente o conceito de justiça no contexto da filosofia moral de David Hume. Com o propósito de fornecer uma explicação completa e consistente de sua teoria da justiça, pretende-se, em primeiro lugar, apresentar a teoria moral sentimentalista de Hume e explicar de que forma sua concepção de justiça se associa com os princípios fundamentais da moralidade. O primeiro capítulo da dissertação consiste, primeiramente, em uma breve exposição do problema do livre-arbítrio e do determinismo e, em segundo lugar, na apresentação da alternativa compatibilista de Hume. Conforme se pretende demonstrar ao longo deste capítulo, a estratégia da solução compatibilista de Hume deve necessariamente envolver a noção de sentimento moral, cujo conceito é central em seu sistema moral. Em seguida, no segundo capítulo, será examinada a teoria moral de Hume, a qual se estrutura em duas hipóteses principais: a tese negativa que contesta a ideia de que o fundamento da moralidade se baseie exclusivamente nas operações da razão (relações de ideias e questões de fato); e a tese positiva que afirma que a fonte da moralidade reside em nossas paixões, sentimentos e afetos de prazer e dor ao contemplarmos caracteres virtuosos e viciosos. O terceiro capítulo visa apresentar a teoria da justiça de Hume, objeto principal desta dissertação. A hipótese central que Hume sugere é que a virtude da justiça não é instintiva ou natural nos seres humanos. Ela é possível unicamente por intermédio de acordos, convenções e artifícios humanos motivados pelo auto-interesse. A tese de Hume é exatamente que a origem da justiça, enquanto uma convenção social, só pode ser explicada com base em dois fatores: a atuação dos sentimentos de nossa disposição interna e a circunstância externa caracterizada pela escassez relativa de bens materiais. Finalmente, o último capítulo desta dissertação visa discutir a teoria política de Hume com o propósito de complementar sua teoria da justiça. Hume defende que a justificação da instituição da autoridade soberana e dos deveres civis se funda nos mesmos princípios da convenção de justiça: eles também são artifícios criados exclusivamente para servir ao nosso próprio interesse.
Resumo:
Trata-se de um estudo que possui como objeto as cargas de trabalho de enfermagem em hospital psiquiátrico e as repercussões para a saúde. O trabalho da enfermagem em hospital psiquiátrico tem particularidades ao se considerar a dinâmica do serviço e o cuidado de pacientes com diversos perfis de adoecimento psíquico; portanto com necessidades de cuidados e monitoramento extenuantes por parte da enfermagem durante 24 horas. Objetivos: identificar as cargas de trabalho vivenciadas pelos trabalhadores de enfermagem em um hospital psiquiátrico; descrever como as cargas de trabalho no hospital psiquiátrico afetam a saúde dos trabalhadores de enfermagem; analisar os mecanismos de enfretamento adotados pelos trabalhadores de enfermagem diante das cargas de trabalho no hospital psiquiátrico. Estudo qualitativo, exploratório e descritivo, tendo como campo um hospital psiquiátrico, situado no município do Rio de Janeiro. O projeto foi aprovado pelo Comitê de Ética em Pesquisa e protocolado com o n 619.262. A coleta de dados ocorreu no primeiro semestre de 2014, tendo participado do estudo 30 trabalhadores de enfermagem (enfermeiros, técnicos e auxiliares de enfermagem) a partir dos critérios de inclusão estabelecidos. Na coleta dos dados, realizada no primeiro semestre de 2014, trabalhou-se com a técnica de entrevista do tipo semiestruturada mediante um roteiro e na caracterização dos participantes, utilizou-se um instrumento autoaplicado. Após a transcrição dos depoimentos recorreu-se à análise de conteúdo do tipo temática, que apontou os seguintes resultados: as cargas presentes em hospital psiquiátrico, na visão dos trabalhadores, devem-se aos cuidados prestados aos pacientes de ordem subjetiva e objetiva, como também em relação à imprevisibilidade do quadro clínico, principalmente nas emergências psiquiátricas. Para o grupo, as cargas de trabalho, tanto físicas quanto psíquicas são intensificadas em função da precariedade das condições de trabalho, a ausência de poder do trabalhador frente a organização e ao volume de trabalho. As cargas acarretam o sofrimento psíquico evidenciado através de queixas como cansaço, nervosismo, incômodo, ansiedade, irritação e desgaste, dores musculares, insônia e cefaleia. Diante do sofrimento psíquico decorrente das cargas de trabalho o grupo elabora mecanismos de enfrentamento centrados na solução de problemas; momentos em que buscam a chefia e conversam com os pares. Quanto aos mecanismos de enfrentamento centrados na emoção, os trabalhadores, buscam afastar-se temporariamente do trabalho, procuram não pensar, não falar a respeito ou extravasam a tensão através de gestos e reclamações. Conclui-se que o hospital psiquiátrico possui cargas de trabalho específicas em função do tipo de trabalho realizado e clientela assistida que exigem dos trabalhadores de enfermagem observação e cuidados contínuos. Pelo fato de as cargas acarretarem prejuízos à saúde do trabalhador, há necessidade de uma política voltada para a prevenção e a promoção da saúde do grupo. Sugere-se a criação e manutenção de grupos de suporte aos trabalhadores com vistas a elaboração e discussão dos problemas enfrentados, assim como a continuidade dos estudos.
Resumo:
Os escoamentos altamente convectivos representam um desafio na simulação pelo método de elementos finitos. Com a solução de elementos finitos de Galerkin para escoamentos incompressíveis, a matriz associada ao termo convectivo é não simétrica, e portanto, a propiedade de aproximação ótima é perdida. Na prática as soluções apresentam oscilações espúrias. Muitos métodos foram desenvolvidos com o fim de resolver esse problema. Neste trabalho apresentamos um método semi- Lagrangeano, o qual é implicitamente um método do tipo upwind, que portanto resolve o problema anterior, e comparamos o desempenho do método na solução das equações de convecção-difusão e Navier-Stokes incompressível com o Streamline Upwind Petrov Galerkin (SUPG), um método estabilizador de reconhecido desempenho. No SUPG, as funções de forma e de teste são tomadas em espaços diferentes, criando um efeito tal que as oscilações espúrias são drasticamente atenuadas. O método semi-Lagrangeano é um método de fator de integração, no qual o fator é um operador de convecção que se desloca para um sistema de coordenadas móveis no fluido, mas restabelece o sistema de coordenadas Lagrangeanas depois de cada passo de tempo. Isto prevê estabilidade e a possibilidade de utilizar passos de tempo maiores.Existem muitos trabalhos na literatura analisando métodos estabilizadores, mas não assim com o método semi-Lagrangeano, o que representa a contribuição principal deste trabalho: reconhecer as virtudes e as fraquezas do método semi-Lagrangeano em escoamentos dominados pelo fenômeno de convecção.
Resumo:
Neste trabalho estuda-se a aplicação do princípio da reparação integral do dano causado às atividades negociais. Como a teoria da responsabilidade civil está calcada na doutrina liberal clássica, a reparação do dano, muitas vezes, não recebe, por parte da doutrina e da jurisprudência, tratamento adequado às características e vicissitudes do mercado. O objetivo principal é tratar de uma das vertentes que o Direito exerce no seu papel de corretor das chamadas falhas de mercado. Analisam-se os preceitos jurídicos da responsabilidade civil em relação a essas falhas de mercado e a implicação que isto tem na solução de questões jurídicas envolvendo a atividade negocial.