929 resultados para Solução de Hoagland


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese compreende a investigação da política curricular de ciclos na rede municipal de ensino de Rondonópolis (MT). Ao ter como foco discursos curriculares, a discussão é marcada pelo registro pós-estrutural e sustenta a compreensão de que a disputa de sentidos para o que seja educar, entre diferentes discursos, compõe uma configuração política específica. A Teoria do Discurso de Laclau e Mouffe e aspectos da desconstrução derridiana (e, em menor densidade, da psicanálise lacaniana) aqui esteiam leituras privilegiadas, ao lado da tradução destas para o campo do currículo na educação por Lopes e Macedo. A releitura da linguagem informa a concepção de realidade como produção discursiva e do social como textualização, marca a noção de política curricular como produção cultural e sustém a compreensão do currículo como um texto. Neste movimento teórico, a tese assinala o status discursivo na liberdade fundante dos jogos de linguagem: eles fazem falir as pretensões de coordenação racional nas políticas curriculares e as suposições de fixação de um centro; permitem pensar a educação e o currículo à margem de um teleologismo; inscrevem a textualização da política em um texto geral e não superável que a desborda como um querer-dizer. O argumento central é de que a política curricular de Ciclos é hegemonizada na operação discursiva de rebaixamento do Outro como representação instada por leituras sedimentadas no social. O trabalho teórico-estratégico busca des-sedimentar algumas significações cristalizadas na defesa deste universalismo, tentando demonstrar a contingência no lugar da razão, da realização conceitual. Enfatizando a tradução como condição da política, a investigação focaliza documentos assinados pela Secretaria de Estado de Educação de Mato Grosso e pela Secretaria Municipal de Educação de Rondonópolis (MT). A discussão teórico-empírica realça que uma relação (marcada pela falta) com o significante conhecimento produz um corte no social e, com ele, a tradução de antagonismos. Nesta relação, exclusões diversas, processadas na decisão política, compõem um contexto interpretativo que sustenta a precarização da escola convencional como objetividade social e projeta sintomaticamente a organização curricular em áreas de conhecimento como solução (remédio) à instabilidade educacional. A contingência credencia a articulação equivalencial de demandas curriculares diferenciais (marxismos, construtivismo, pragmatismo, de forma destacada), metonimicamente, enquanto os antagonismos produzem a ilusão de positividade. A reiteração significante (do termo conhecimento, sobretudo) abre (à alteridade e leva) à flutuação de sentidos compondo cadeias de significação que se substituem. A hegemonia do nome (não um conceito) Ciclos dissolve identificações anteriores de grupos curriculares locais ao subjetivar tais diferenças como pró-ciclos, ao mesmo tempo em que subjetiva diferenças antagônicas outras como anti-ciclos. Defendendo a democracia como devir, a tese conclui que a estabilidade de um sentido para a educação é apenas uma suposição sempre perturbada pela différance e defende manter o lugar do universal/fundamento/vazio como aberto à pluralidade

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A propriedade de auto-cura, em redes inteligente de distribuição de energia elétrica, consiste em encontrar uma proposta de reconfiguração do sistema de distribuição com o objetivo de recuperar parcial ou totalmente o fornecimento de energia aos clientes da rede, na ocorrência de uma falha na rede que comprometa o fornecimento. A busca por uma solução satisfatória é um problema combinacional cuja complexidade está ligada ao tamanho da rede. Um método de busca exaustiva se torna um processo muito demorado e muitas vezes computacionalmente inviável. Para superar essa dificuldade, pode-se basear nas técnicas de geração de árvores de extensão mínima do grafo, representando a rede de distribuição. Porém, a maioria dos estudos encontrados nesta área são implementações centralizadas, onde proposta de reconfiguração é obtida por um sistema de supervisão central. Nesta dissertação, propõe-se uma implementação distribuída, onde cada chave da rede colabora na elaboração da proposta de reconfiguração. A solução descentralizada busca uma redução no tempo de reconfiguração da rede em caso de falhas simples ou múltiplas, aumentando assim a inteligência da rede. Para isso, o algoritmo distribuído GHS é utilizado como base na elaboração de uma solução de auto-cura a ser embarcada nos elementos processadores que compõem as chaves de comutação das linhas da rede inteligente de distribuição. A solução proposta é implementada utilizando robôs como unidades de processamento que se comunicam via uma mesma rede, constituindo assim um ambiente de processamento distribuído. Os diferentes estudos de casos testados mostram que, para redes inteligentes de distribuição compostas por um único alimentador, a solução proposta obteve sucesso na reconfiguração da rede, indiferentemente do número de falhas simultâneas. Na implementação proposta, o tempo de reconfiguração da rede não depende do número de linhas nela incluídas. A implementação apresentou resultados de custo de comunicação e tempo dentro dos limites teóricos estabelecidos pelo algoritmo GHS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A leptina tem um papel importante na regulação do sistema reprodutivo além de seu papel principal na regulação do peso corporal e ingestão alimentar. O objetivo deste estudo foi avaliar o efeito da administração de leptina durante o período neonatal na função testicular da prole adulta. Vinte e quatro filhotes de 12 mães foram divididos em 2 grupos: Grupo leptina: injetados com 50 L de leptina (80ng/gPC, subcutânea) nos primeiros 10 dias de vida e Grupo Controle: injetados com o mesmo volume de solução salina. Todos os animais foram sacrificados aos 90 dias de vida. Parâmetros analisados: consumo alimentar, massa corporal, crescimento linear, data de início da puberdade, perfil lipídico, níveis séricos de estradiol e testosterona, expressão gênica (PCR em tempo real) e expressão proteica (Western blot) de ObRa, OBRb, aromatase, AR, ER, morfometria testicular, número, morfologia e viabilidade de espermatozoides. Os dados foram expressos como média erro padrão. A significância estatística foi determinada pelo teste t de Student. A Injeção de leptina levou a uma redução (p≤0,008) no consumo alimentar a partir do dia 26 ao 40 e do dia 70 em diante, enquanto que a massa corporal (p≤0,03) e o crescimento linear (p≤0,05) foram reduzidos do dia 26 até o dia 45. O peso da hipófise (p≤0,0006), hipotálamo (p≤0,01), próstata (p≤0,003), testículo (p≤0,008) e epidídimo (p≤0,004) e bexiga (p≤0,009) foram significativamente reduzidos pela injeção de leptina. A Injeção de leptina adiantou o início da puberdade (C=45,0 0,3; L=41,6 0,3; dias, P≤0,0001). Em relação ao perfil lipídico, a administração de leptina gerou um aumento nos níveis séricos de TG (C= 116,5 15,9; L=172,6 19,7; ng/dL, P≤0,05) e uma redução nos níveis de HDL (C=33 1,5; L = 24 3,5; ng/dL, P≤0,02). Os níveis séricos de testosterona também foram reduzidos pela leptina (C=5,2 1,0; L=1,1 0,3; ng/mL, P≤0,003). Todos os genes avaliados por PCR em tempo real mostraram um aumento na sua expressão: Obra (C=0,32 0,04; L=0,69 0,16; P≤0,04), OBRb (C=0,37 0,06; L=0,71 0,16; P≤0,03), AR (C=0,28 0,02; L=0,71 0,16; P≤0,02), Aromatase (C=0,31 0,04; L=0,53 0,09; P≤0,04), ER-α (C=0,79 0,03; L=0,93 0,03; P≤0,01), ER-β (C=0,29 0,03; L=0,73 0,16; P≤ 0,02). Por outro lado, a expressão proteica de OBR (C=4,4 0,29; L=6,6 0,84; P≤0,05), ER-α (C=0,4 0,02; L=0,6 0,05; P≤0,03) e aromatase (C=0,4 0,03; L=0,5 0,02; P≤0,04) aumentaram, enquanto que a expressão proteica de AR (C=0,16 0,01; L=0,09 0,01; P≤0,009) foi reduzida pela administração de leptina. A análise morfométrica mostrou que a leptina levou a um aumento da área total do túbulo seminífero (C=64,6 3,1; L=56,1 2,1;μm, P≤0,01), aumento da área luminal (C=40,6 2,3; L= 48,7 0,9; μm P≤ 0,004) e na altura do epitélio (C=21,5 1,2; L=24,6 1,1; μm, P≤0,03), enquanto que o comprimento do túbulo seminífero foi reduzido no grupo tratado (C=2200 350; L= 1100 110;cm, P≤0,006). A administração de leptina levou a um aumento no número total de espermatozoides (C=20x107 2x107; L=30x107 5x107;Cls/mL, P≤0,009) e no número de anormalidades (C=40,6 1,9; L=45,8 1,2, P≤0,049). Podemos concluir que a leptina tem um papel importante na morfologia e função testicular. A leptina parece ter efeito direto neste tecido uma vez que a expressão gênica e proteica de OBR, AR, ER e aromatase foram alterados pela administração da leptina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo foi avaliar a dissolução do tecido pulpar pelo NaOCl contendo em sua composição agentes redutores da tensão superfical (Chlor-Xtra) quando comparados ao NaOCl convencional. Com esta finalidade 44 dentes unirradiculares humanos com tecido pulpar preservado em solução de formol a 10% foram agrupados em 22 pares de acordo com a semelhança de sua anatomia interna previamente avaliada por radiografias. Os canais foram instrumentados com sistema Protaper Universal e todo o processo de irrigação teve, além do tempo, seu volume e fluxo controlado por meio automatizado por meio do sistema Vatea Endodontic Iirrigation Device. Após cada canal que compunha um par ter sido instrumentado empregando-se uma das diferentes soluções testadas, as quais foram previamente avaliadas quanto a sua tensão superficial, ambos foram devidamente preparados e enviados para processamento e análise histológica. Cortes a 0,5, 1,2,3 e 4mm do ápice foram realizados, corados e fotografados. As imagens foram analisadas por meio do programa AxioVision a fim de estabelecer o percentual de tecido remanescente em relação à área total do canal nos segmentos estudados. As análises referentes a tensão superficial revelaram que o Chlor-Xtra demonstrou possuir significativamente menor tensão superficial quando comparado ao NaOCL convencional (p>0,05). A análise estatística por meio do test T student das áreas dos canais, demonstrou que o pareamento das amostras foi eficiente entre os grupo NaOCl e Chlor-Xtra (p>0,05). Em relação ao Percentual de Tecido Remanescente (PTR), os resultados revelaram por meio de análise feita pelo teste Kruskal-Wallis e o teste de correlação de Spearman que o nível de corte influencia significantemente o PTR (P<0,05).Por fim, o teste de Mann-Whitney indicou que o PTR não é influenciado pela solução irrigadora utilizada (P>0,05). A partir da análise dos resultados foi possível concluir que quanto mais apicalmente foi o nível de corte histológico dos canais estudados, maior foi o percentual de tecido pulpar remanescente independentemente da solução utilizada, portanto.não houve diferença significativa na qualidade do debridamento produzido pelas duas soluções testadas, desta forma indicando que a presença de agentes modificadores da tensão adicionados ao NaOCl não foi capaz de superar os resultados obtidos por soluções de NaOCl convencionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os objetivos deste estudo foram medir o efeito do reforço estrutural com a adição de fibras de vidro, na resistência ao teste de tração diametral e no selamento marginal de restaurações classe II com cimento de ionômero de vidro em molares decíduos. Fibras de vidro foram incorporadas ao pó do cimento de ionômero de vidro (CIV) na concentração de 40%. As fibras usadas foram do tipo E com comprimentos que variavam de 50m a 210m. A propriedade mecânica foi verificada através do teste de tração diametral, após 15 minutos, 24 horas e 15 dias de estocagem em água. Corpos de prova foram preparados com as dimensões de 4x8 mm para cada intervalo de tempo de acordo com as normas do fabricante e padrões internacionais. Para o teste de microinfiltração foram usados segundos molares decíduos hígidos, onde foram preparadas cavidades classe II padronizadas em dois grupos: a) controle com CIV Ketac Molar Easymix (3M/ESPE); e b) teste Ketac Molar Easymix (3M/ESPE); reforçado com fibras. Estes dentes foram restaurados e deixados em água por 24h e, a seguir, imersos em solução de nitrato de prata a 50% pelo mesmo período. Para que houvesse a precipitação de sais de prata os dentes foram colocados em solução reveladora de radiografias por 15 minutos. Para analisar a microinfiltração os espécimes foram seccionados na direção mesio-distal obtendo duas amostras de observação para cada cavidade restaurada. Os resultados do teste mecânico foram analisados através dos testes de variância ANOVA e de múltiplas variáveis de Tukey. Os resultados da microinfiltração foram analisados através do teste de MANN-WHITNEY. Com a metodologia empregada foi possível concluir que houve aumento dos valores de tração diametral no CIV com a adição de fibras de vidro. Para os intervalos de 24 horas e 15 dias, o CIV reforçado com fibras apresentou valores de tração diametral superiores àqueles do CIV não reforçado, havendo diferença significativa estatística (p<0,05) para os intervalos testados. No teste de microinfiltração os grupos mostraram valores semelhantes de infiltração marginal. A adição das fibras de vidro tipo E aumentou a resistência à tração diametral do CIV testado em relação ao grupo controle e as fibras de vidro não alteraram a adesão do cimento reforçado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, objetivou-se avaliar as propriedades físicas e microbiológicas de resinas acrílicas a base de polimetilmetacrilato após a incorporação de sal de diacetato de clorexidina (CDA) às mesmas. Para tal, foram confeccionados corpos de prova (CDPs) com as resinas VIPI COR e Duralay, sem e com incorporação de 0,5%; 1,0% e 2,0% de CDA, totalizando 8 grupos. A cromatografia líquida foi utilizada para mensurar a liberação de CDA pelas resinas acrílicas, e ainda, mensurar sua lixiviação de monômeros residuais.Para isso, os CDPs foram armazenados individualmente em placas para cultura celular de 24 poços contendo 1 ml de água destilada estéril em cada poço. Após tempo de armazenagem de 2 horas, 7 dias, 14 dias, 21 dias e 28 dias, a 37oC, a solução foi retirada e a liberação de clorexidina ou monômeros residuais foi avaliada utilizando-se HPLC associado a espectrometria ultravioleta. A atividade antifúngica para C. albicans foi avaliada utilizando teste de difusão em ágar, no qual os CDPs foram colocados em placas de BHI previamente inoculadas com C. albicans, com medição do halo de inibição após 48 horas de incubação a 37C. A análise do grau de conversão das resinas se deu através da técnica de espectroscopia de infravermelho transformada de Fourier FTIR utilizando-se uma amostra de resina não polimerizada de cada grupo e realizados 4 scans de absorbância. Para a mensuração da sorção de água por parte das resinas contendo CDA, foram confeccionados 10 corpos de prova para cada grupo, que foram posicionados em suporte dentro de dessecador a 37C para remoção de umidade intrínseca (m1) e depois imersos em 100 ml de água deionizada por 7 dias a 37C, tendo a água trocada diariamente. Após este intervalo, os corpos foram secos para obter a nova massa da resina (m2). As massas obtidas foram incluídas em fórmula matemática para obtenção do grau de sorção. Após obtenção dos resultados, quando comparou-se o halo inibição entre os grupos testados e de mesma marca, apenas as análises entre grupo CDA 2% x grupo CDA 1% e entre CDA 1% x CDA 0,5% não apresentaram diferenças significantes. Quanto a liberação de CDA, a análise de variância demonstrou que dois dos três fatores avaliados (concentração do fármaco e tempo de armazenagem) alteram de maneira significativa a taxa de liberação da clorexidina (p<0,0001), entretanto a marca do material pareceu não influenciar de maneira significativa na liberação do fármaco. Quanto ao grau de conversão, os valores obtidos não foram significantes e apresentou-se menor apenas nos grupos com CDA 2% . Para ambas a sorção de água aumentou conforme a incorporação do sal cresceu e houve aumento significativo nas concentrações de 1.0% e 2.0%. Podemos concluir que a incorporação da clorexidina às resinas a base de PMMA: é capaz de inibir o crescimento de C. albicans; não alterou o grau de conversão das resinas testadas; não altera a liberação de monômeros residuais; e, altera a sorção de água das resinas acrílicas a base de PMMA quando concentrações maiores de CDA são adicionadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem orientada a agentes surge como paradigma no desenvolvimento de software, haja vista a quantidade de iniciativas e estudos que remetem à utilização de agentes de software como solução para tratar de problemas mais complexos. Apesar da popularidade de utilização de agentes, especialistas esbarram na falta de universalidade de uma metodologia para construção dos Sistemas Multiagentes (MAS), pois estas acabam pecando pelo excesso ou falta de soluções para modelar o problema. Esta dissertação propõe o uso de uma Ontologia sobre Metodologias Multiagentes, seguindo os princípios da Engenharia de Métodos Situacionais que se propõe a usar fragmentos de métodos para construção de metodologias baseados na especificidade do projeto em desenvolvimento. O objetivo do estudo é sedimentar o conhecimento na área de Metodologias Multiagentes, auxiliando o engenheiro de software a escolher a melhor metodologia ou o melhor fragmento de metodologia capaz de modelar um Sistema Multiagentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O município do Rio de Janeiro, desde sua fundação luta com o grave problema de abastecimento de água. Com o passar do tempo todas as pequenas captações no entorno da cidade foram exauridas tanto em termos de quantidade como em qualidade, afetadas pela poluição decorrente do lançamento de efluentes in natura. Solução foi a busca por novas fontes de abastecimento em outros municípios. Atualmente 80% (oitenta por cento) do abastecimento da região metropolitana do Rio de Janeiro, RMRJ, é proveniente de uma única fonte: o rio Guandu. Isto foi possível devido à transposição da bacia do rio Paraíba do Sul para o rio Guandu ocorrida na década de 50. Esta fonte essencial de abastecimento, onde foi construída a maior Estação de Tratamento de Água do mundo - ETA Guandu - está à beira da exaustão. Somente uma pequena parcela de água bruta foi captada e tratada nesta última década. Visando minimizar o grave problema que já se apresenta e enquanto investimentos em novas alternativas não forem alcançados, o consumo com responsabilidade e sustentabilidade passa a ser a tônica da discussão. Neste contexto, as áreas de baixa renda do município com suas 801 favelas e mais de 1.500 loteamentos irregulares representando em 2010 aproximadamente 1/3 (um terço) da população total, consumindo de 10% a 15% de toda a produção de água tratada da região metropolitana deve ser permanentemente estimulada a contribuir com esta redução de consumo. Estudos apresentados nesta dissertação em três metodologias distintas apontam para um consumo acima da média nacional deste mesmo perfil de população. Os resultados obtidos indicam a necessidade real da redução de consumo observando, entretanto que este é um trabalho extremamente árduo e difícil uma vez que exige mudança de hábitos e a envolvimento de todos, desde a população até a Companhia de Saneamento local.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partindo do princípio de que o acesso das populações aos meios de transporte é um elemento essencial para sua participação nas dinâmicas econômicas e sociais, esta pesquisa tem por objetivo analisar a transformação da mobilidade urbana ocorrida na Colômbia nos últimos quatorze anos. O governo colombiano, a partir do ano 2000, promoveu o sistema BRT (bus rapid transit) como solução para os tradicionais problemas de mobilidade urbana do país. Essa política fundamentou-se na experiência do sistema Transmilenio de Bogotá, primeiro BRT da Colômbia e reconhecido internacionalmente como uma alternativa de qualidade e baixo custo, equiparável aos sistemas sobre trilhos. O trabalho estuda a política que propagou o modelo Transmilenio, focando-se principalmente na réplica que este teve em uma das principais cidades da Colômbia, Barranquilla. Analisam-se os principais delineamentos, os atores que têm influência na tomada de decisões sobre mobilidade urbana e seus mecanismos de ação. Tal percurso é a base para, finalmente, compreendermos a realidade hoje vivenciada pela população de Barranquilla. Destaca-se a influência do Banco Mundial como gerador de política internacional de mobilidade urbana e seu papel no financiamento dos sistemas de massa colombianos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ante a crescente utilização dos meios eletrônicos como forma de viabilizar o comércio de produtos e serviços além das fronteiras estatais o presente estudo tem como escopo identificar os desafios oriundos do embate entre a realidade cibernética e o direito internacional contemporâneo, pontuando, de forma crítica, as soluções descortinadas pela sociedade internacional. Isto porque as questões de direito internacional, já conflituosas no âmbito do comércio internacional tradicional, se mostram ainda mais subjetivas no peculiar ambiente virtual, em regra desmaterializado e a desterritorializado. Tais características e peculiaridades refletem na identificação da jurisdição e da lei aplicável no contrato eletrônico, nas soluções para o combate do cibercrime e na solução alternativa de conflitos, ademais de outros temas que foram possíveis de serem abordados neste estudo. Para tanto é proposto um exame das soluções até então desenvolvidas para a regularização e/ou padronização das condutas no âmbito do comércio internacional por via eletrônica, colacionando a normativa e a jurisprudência implementadas e/ou em desenvolvimento na área.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estuda a transferência de calor por condução considerando a condutividade térmica como uma função constante por partes da temperatura. Esta relação, embora fisicamente mais realista que supor a condutividade térmica constante, permite obter uma forma explícita bem simples para a inversa da Transformada de Kirchhoff (empregada para tratar a não linearidade do problema). Como exemplo, apresenta-se uma solução exata para um problema com simetria esférica. Em seguida, propôe-se uma formulação variacional (com unicidade demonstrada) que introduz um funcional cuja minimização é equivalente à solução do problema na forma forte. Finalmente compara-se uma solução exata obtida pela inversa da Transformada de Kirchhoff com a solução obtida via formulação variacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de software livre de Jacobiana para a resolução de problemas formulados por equações diferenciais parciais não-lineares é de interesse crescente para simular processos práticos de engenharia. Este trabalho utiliza o chamado algoritmo espectral livre de derivada para equações não-lineares na simulação de fluxos em meios porosos. O modelo aqui considerado é aquele empregado para descrever o deslocamento do fluido compressível miscível em meios porosos com fontes e sumidouros, onde a densidade da mistura de fluidos varia exponencialmente com a pressão. O algoritmo espectral utilizado é um método moderno para a solução de sistemas não-lineares de grande porte, o que não resolve sistemas lineares, nem usa qualquer informação explícita associados com a matriz Jacobiana, sendo uma abordagem livre de Jacobiana. Problemas bidimensionais são apresentados, juntamente com os resultados numéricos comparando o algoritmo espectral com um método de Newton inexato livre de Jacobiana. Os resultados deste trabalho mostram que este algoritmo espectral moderno é um método confiável e eficiente para a simulação de escoamentos compressíveis em meios porosos.