999 resultados para Princípio da insignificância


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho vem trazer ao leitor um estudo sobre os tipos de soluções alternativas de resolução de conflito com o enfoque na mediação. Desde o princípio da humanidade sempre houve a necessidade de uma pessoa para interpretar ou auxiliar povos com idiomas e costumes diferentes e, esse método foi trazido até a atualidade, principalmente, como uma forma de solucionar os conflitos. A mediação é uma prática que permite as partes envolvidas solucionar o litígio sem precisar do judiciário, preservando assim o relacionamento existente entre as partes. O mediador deve ser um profissional experiente, empático e principalmente imparcial, para conseguir ouvir as partes e não tomar partido, além de ser multidisciplinar devido as várias e diferentes necessidades que surgem nos processos. É preciso também que ele seja habilidoso porque caso as partes não consigam pensar em uma solução para o problema. Outras formas de soluções alternativas serão apresentadas como a negociação, arbitragem e a conciliação explicando os conceitos e sua aplicabilidade para melhorar o sistema Judiciário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A mídia social tornou-se um canal muito importante de comunicação e interação para pessoas de todo o mundo, e uma grande quantidade de conteúdo está sendo criado. Como resultado, o processo de análise de tal enorme quantidade de dados requer o suporte de ferramentas e técnicas de visualização. Este estudo está centrado nas relações entre as palavras postadas no Twitter, usando o princípio da Folksonomia para categorizar as palavras mais recorrentes como etiquetas (ou tags). Além disso, ele propõe um modelo visual baseado no princípio de atração física, que tem como objetivo mostrar a maneira como as principais etiquetas estão correlacionadas. Os resultados indicam o potencial do Modelo Orbital, porque pode ser utilizado para representar a dinâmica das relações ao longo do tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante a análise sísmica de estruturas complexas, o modelo matemático empregado deveria incluir não só as distribuicões irregulares de massas e de rigidezes senão também à natureza tridimensional da ecitação sísmica. Na prática, o elevado número de graus de liberdade involucrado limita este tipo de análise à disponibilidade de grandes computadoras. Este trabalho apresenta um procedimento simplificado, para avaliar a amplificação do movimento sísmico em camadas de solos. Sua aplicação permitiria estabelecer critérios a partir dos quais avalia-se a necessidade de utilizar modelos de interação solo-estrutura mais complexos que os utilizados habitualmente. O procedimento proposto possui as seguientes características : A- Movimento rígido da rocha definido em termos de três componentes ortagonais. Direção de propagação vertical. B- A ecuação constitutiva do solo inclui as características de não linearidade, plasticidade, dependência da história da carga, dissipação de energia e variação de volume. C- O perfil de solos é dicretizado mediante um sistema de massas concentradas. Utiliza-se uma formulação incremental das equações de movimento com integração directa no domínio do tempo. As propriedades pseudo-elásticas do solo são avaliadas em cada intervalo de integração, em função do estado de tensões resultante da acção simultânea das três componentes da excitação. O correcto funcionamento do procedimento proposto é verificado mediante análises unidimensionais (excitação horizontal) incluindo estudos comparativos com as soluções apresentadas por diversos autores. Similarmente apresentam-se análises tridimensionais (acção simultânea das três componentes da excitação considerando registros sísmicos reais. Analisa-se a influência que possui a dimensão da análise (uma análise tridimensional frente a três análises unidimensionais) na resposta de camadas de solos submetidos a diferentes níveis de exçitação; isto é, a limitação do Princípio de Superposisão de Efeitos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, uma empresa deve ter sua atenção voltada não somente ao mercado brasileiro, mas também ao mercado internacional. Esta nova forma de postura, denominada “A Nova Competição Global”, vem forçando os empresários à aprimorarem, continuamente, seus processos produtivos. Nesse sentido, as novas formas de organização da produção estão revolucionando o gerenciamento das empresas. Informações geradas por relatórios econômico-financeiros são consideradas como uma das melhores formas de medição das rotinas e melhorias ocorridas, e visam proporcionar tomadas de decisão rápidas e seguras. Com as mudanças no ambiente empresarial, vieram à tona as deficiências dos sistemas tradicionais de custeio, dado que eles não mais respondiam, satisfatoriamente, às necessidades de informação impostas pelo atual ambiente competitivo. Em vista da problemática exposta, este trabalho estuda os sistemas de custeio vigentes, buscando identificar seus pontos fortes e fracos para, então, combiná-los convenientemente, propondo um sistema de custeio alternativo, adequado às novas exigências das empresas. Este trabalho inicia com a análise dos sistemas de custeio tradicionais e contemporâneos, à luz da nova competição global. Na seqüência, destaca as principais deficiências destes sistemas e, por fim, propõe um sistema de custeio adaptado à atual realidade competitiva. O sistema de custeio proposto é uma combinação conveniente do princípio de custeio por absorção associado aos métodos do custo-padrão, das unidades de esforço de produção e do custeio baseado em atividades. Um estudo de caso foi realizado em uma empresa de produção seriada, tendo por objetivo validar o sistema de custeio proposto, partindo da implementação dos conceitos teóricos referenciados no trabalho, convenientemente adaptados à estrutura de custos já existente numa empresa real. Como principais resultados, o sistema de custos proposto permitiu avaliar as perdas do processo produtivo, bem como identificar as atividades administrativas e de apoio à produção (nãoprodutivas), visando dar subsídios para a realização de melhorias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A região costeira do Brasil Meridional, definida como Provincia Costeira do Rio Grande do Sul é constituida por dois elementos geológicos maiores, o Embasamento e a Bacia de Pelotas. O primeiro, composto pelo complexo cristalino pré-cambriano e pelas sequências sedimentares e vulcânicas, paleozóicas e, mesozoicas, da Bacia do Paraná, comportando-se como uma plataforma instável durante os tempos cretácicos, deu origem ao segundo, através de movimentações tectônicas. Desde então a Bacia de Pelotas, uma bacia marginal subsidente, passou a receber a carga clástica derivada da dissecação das terras altas adjacentes as quais constituíam parte do seu embasamento que na parte ocidental atuou no inicio como uma área levemente positiva, estabilizando-se após. A sequência sedimentar ali acumulada, cerca de I 500 metros de espessura, é fruto de sucessivas transgressões e regressões. Controladas no princípio pelo balanço entre as taxas de subsidência e de sedimentação, a partir do Pleistoceno estas transgressões e regressões passaram a ser governadas pelas variações glacio-eustáticas ocorridas no decorrer da Era Cenozóica A cobertura holocênica deste conjunto é considerada como outro elemento geológico importante da provincia costeira pelo fato de compor a maioria das grandes feiçoes morfograficas responsáveis pela configuraçao superficial da região. Ela é constituida por um pacote trans-regressivo cuja porção superior expõe-se na planície litorânea, encerrando uma série de unidades lito-estratigraficas descontinuas e de idade variável resultantes do deslocamento de vários ambientes de sedimentação por sobre a mesma região. O estabelecimento de sua história geológica somente tornou-se possivel após detida análise geomorfológica. A planicie arenosa litorânea que separa a Lagoa dos Patos do Oceano Atlântico, revelou-se composta pela sucessão de quatro sistemas de barreiras, constituindo a denominada Barreira Múltipla da Lagoa dos Patos, cuja origem está diretamente relacionada às oscilações eustáticas que se sucederam na região,durante os últimos 6 000 anos, após o final da Transgressão Flandriana. A primeira barreira formou-se durante o nivel máximo atingido pelo mar no final da grande transgressão holocênica, construida a partir de longos esporões arenosos ancorados aos promontórios existentes na entrada das várias baias que ornamentavam a costa de então. Sobre tais esporões acumularam-se, durante pequenas oscilações do nivel do mar, extensos depósitos arenosos de natureza eólica Outra barreira foi desenvolvida a partir da emersão de barras marinhas durante a fase regressiva que se sucedeu, aprisionando um corpo lagunar sobre um terraço marinho recém exposto. Ainda no decorrer desta transgressão, grandes quantidades de areia trazidas da antepraia foram mobilizadas pelo vento construindo grandes campos de dunas sobre a barreira emersa.Na área lagunar, igualmente afetada pela regressão, depósitos lagunares e paludais foram acumulados sobre o terraço marinho. Assim estruturada, a barreira resistiu a fase transgressiva subsequente quando o aumento do nivel do mar foi insuficiente para encobri-Ia. Na margem oceânica a ação das ondas promoveu a formação de falésias, retrabalhando o material arenoso e redistribuindo-o pela antepraia. Na margem da Lagoa dos Patos de então, o avanço das aguas causou a abrasão do terraço marinho parcialmente recoberto por depósitos paludais e lagunares. Nova fase regressiva ocasionou o desenvolvimento de outra barreira no lado oceânico isolando uma nova laguna enquanto que na margem da Lagoa dos Patos emergia um terraço lagunar. Obedecendo a este mesmo mecanismo a quarta barreira foi acrescentada a costa oceânica e um segundo terraço lagunar construido na borda da Lagoa dos Patos. O constante acúmulo de sedimentos arenosos que se processou na área após a transgressão holocênica, através de processos praiais e eólicos desenvolvidos num ambiente de completa estabilidade tectônica, aumentou consideravelmente a área emersa da província costeira A parte superior da cobertura holocênica constitui assim uma grande sequência regressiva deposicional, que teve como principal fonte os extensos depósitos que recobriam a plataforma continental adjacente. De posse de tais elementos, a costa atual do Rio Grande do Sul é uma costa secundária, de barreiras, modelada por agentes marinhos, conforme a classificação de Shepard. A tentativa de correlaçao entre as várias oscilaçoes eustáticas deduzidas a partir da análise geomorfológica da região ( com aquelas que constam na curva de variaçao do nlvel do mar o corrida nos últimos 6 000 anos, apresentada por Fairbridge, revela coincidências encorajadoras no sentido de estender o esquema evolutivo aqui proposto, como uma hipótese de trabalho no estudo dos terrenos holocênicos restantes da Província Costeira do Rio Grande do Sul. A sua utilização tornará muito mais fácil a organização crono-estratigráfica das diversas unidades que nela se encontram.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho defende de que a idéia que critérios lingüísticos e pragmáticos contribuem para o reconhecimento da especificidade do termo jurídico. Desse modo, parte do princípio que a identificação de uma terminologia está vinculada ao reconhecimento da natureza e dos propósitos daqueles que a utilizam em uma dada área de conhecimento, o que, na área jurídica, se torna evidente na expressão da normatividade da lei. A pesquisa utiliza como referencial teórico as concepções de base da Teoria Comunicativa da Terminologia, da Teoria dos Atos de Fala, aportes da Teoria Semiótica do Texto no âmbito jurídico, bem como fundamentos gerais da ciência jurídica. O corpus de estudo, a partir do qual se demonstra a validade da idéia defendida, é formado por textos legislativos. A Constituição Brasileira de 1988 foi escolhida como campo preferencial de pesquisa e é examinado como objeto da comunicação que se estabelece entre o destinador e o destinatário no âmbito do universo sócio-cultural da área jurídica. Descrevem-se os mecanismos que tecem a rede modal que estrutura esse tipo de texto, considerando-se que a enunciação da norma constitucional configura um ato de fala jurídico. Esse ato de fala é analisado na manifestação de normas de três categorias: programáticas, de atribuição de poder e competência e de conduta, destacando-se o caráter performativo dos verbos que expressam tais normas. Após a identificação do padrão morfossintático e semântico que caracteriza a sua estrutura frasal, analisam-se os elementos que vinculam o verbo, seu sujeito e complementos aos propósitos da área temática, com destaque para sua implicação pragmática. Conforme a pesquisa demonstra, tais propósitos imprimem o caráter de imperatividade àquilo que é comunicado, conferindo especificidade às unidades lexicais que integram a estrutura frasal dos verbos focalizados. Conclui-se que o verbo performativo é fator primordial no processo de atualização da especificidade dos termos na linguagem jurídica, bem como se demonstra que alguns dos verbos analisados se constituem em genuínos candidatos a termo jurídico. Finalizando a investigação, são indicados parâmetros para a marcação de elementos lingüísticos, tanto morfossintáticos como semânticos e de natureza pragmática, para o processamento informatizado da linguagem usada no Direito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo principal deste estudo é contribuir para o entendimento das relações de suprimento estabelecidas entre as grandes empresas industriais do Brasil e seus fornecedores. A pesquisa parte do princípio que existem algumas variáveis que afetam as políticas de suprimento e procura verificar as correlações existentes entre estas variáveis e as políticas. Baseia-se em um conjunto de teorias, entre as quais, a teoria geral das organizações, a teoria dos jogos, a economia dos custos das transações, os estudos sobre a importância da confiança nas relações de negócios teoria da confiança e a teoria de compras. Através de um questionário, construído com baseado em escalas de Likert e de diferenc ial semântico, procurou-se validar um modelo de relacionamento que coloca em extremos as relações chamadas de CFD (Contratos de fornecimento discretos) e CFP (Contratos de fornecimento de parcerias). Foram remetidos questionários a 300 empresas e se obteve o retorno de 238. A amostra contém empresas de 14 estados brasileiros e 11 setores. O estudo em sua parte descritiva concluiu que existem diferenças significativas nas ações das empresas de acordo com o ramo no qual atuam. Não existem, no entanto, diferenças significativas entre os diversos estados brasileiros nos quais se situam suas matrizes, o que indica uma homogeneização de práticas em todo o território nacional, ao menos entre as grandes empresas. Foram encontradas correlações significativas entre algumas variáveis independentes e as estratégias de suprimento. Isto pode fornecer subsídios tanto para a definição de posturas para as empresas fornecedores de insumos industriais, quanto para as empresas que estão montando estratégias de suprimento e querem utilizar o estudo como “benchmark” dos seus processos em relação às maiores empresas brasileiras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o objeto de estudo desta dissertação é a aplicação de conceitos do Sistema Toyota de Produção (STP) na melhoria de um processo de fabricação de calçados. Utilizando como base o princípio do não-custo e do Mecanismo da Função Produção (MFP), e as Sete Classes de Perdas do Sistema Toyota de Produção, além de algumas de suas técnicas, pretende-se realizar uma análise envolvendo i) um modelo de calçados, ii) uma linha de produção, e iii) uma das operações que fazem parte dessa linha de produção de calçados. Nos três casos o objetivo é identificar as perdas e, posteriormente, sugerir melhorias para eliminá-Ias e/ou reduzi-Ias. Tal análise se dá em três momentos: primeiramente, utiliza-se a Análise do Valor objetivando reduzir o custo dos componentes do produto (calçado) em fabricação. Em um segundo momento, um Fluxograma de Processo é utilizado para mapear o processo e, através da análise da transformação da matériaprima em produto acabado, são identificadas perdas e sugeridas alternativas para eliminá-Ias ou reduzi-Ias. Finalmente, através das técnicas de Estudo do Trabalho (Estudo de Método e Medida do Trabalho - cronometragem), analisa-se uma das operações que fazem parte desse processo produtivo. Por sua importante ligação com a melhoria da qualidade, especificamente no que se refere a eliminar ou reduzir a classe de perda denominada como "Perdas por Fabricação de Produtos Defeituosos", dispositivos Poka-Yoke também são abordados e aplicados nesta dissertação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação expõe a fundamentação do conceito de bem comum no pensamento de JOHN MITCHELL FINNIS. Este jusfilósofo tem como ponto de partida para sua reflexão uma reinterpretação da ética tomista. Dela interessa o tratamento dado à separação das quatro ordens de conhecimento, particularmente a separação entre ordem natural e prática. A ordem prática de conhecimento tem suas próprias diretrizes. Logo, assim como na ordem natural de conhecimento a primeira diretriz é o princípio da não contradição, na ordem prática o primeiro princípio é o bem é para ser feito e buscado e o mal evitado. Estes postulados não são imperativos e nem indicativos, mas diretivos; e, no caso da ordem prática, uma diretiva para ação. A implicação epistemológica está em que a fundamentação imediata do agir humano não reside na natureza humana, mas na percepção prática de bens a serem realizados e dos males a serem evitados. Há um número determinado de bens humanos básicos, que são as razões primeiras para o agir humano. Eles são objetivos, incomensuráveis, auto-evidentes e pré-morais. O rol que FINNIS propõe é vida, conhecimento, matrimônio, excelência na realização, sociabilidade/amizade, razoabilidade prática e ‘religião’. O conteúdo da moral resulta destes bens humanos e tem como princípio supremo toda a escolha deve favorecer e respeitar o bem humano integral. Além de sintetizar a correção para o agir individual, a moral também fundamenta e demanda um agir social correto, que está expresso no conceito de bem comum. FINNIS define bem comum nos seguintes termos: um conjunto de condições que tornam aptos os membros de uma comunidade a alcançar por si mesmos objetivos razoáveis, ou realizar razoavelmente por si mesmos o(s) valor(es) pelos quais eles têm razão em colaborar uns com os outros (positiva e/ou negativamente) em uma comunidade. O conteúdo específico do bem comum da comunidade política é constituído pela justiça. O direito é o objeto da justiça e, assim, meio pelo qual o Estado a realiza e, por conseqüência, o bem comum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tem se intensificado, na atualidade, as iniciativas voltadas à construção de parcerias e ao desenvolvimento do princípio de subsidiariedade. Junto ao campo econômico, atividades de filantropia empresarial tem sido enfatizadas desde meados dos anos 90, no Brasil, sendo que, entre suas estratégias, está a valorização/disseminação da prática voluntária em moldes profissionalizados, com vistas a resultados da ação. Neste ínterim, esta pesquisa foi elaborada no intuito de identificar como a gestão de voluntariado, instaurada a partir de filantropia empresarial, tem contribuído para a construção de redes de ação voluntária e para a ampliação da competitividade de organizações sem fins lucrativos. Seguindo o referencial de Pierre Bourdieu, o trabalho analisa os capitais disponibilizados em torno de práticas de filantropia empresarial/responsabilidade social no Brasil atualmente, configurando o contexto social de atuação para as unidades de pesquisa: a Unidade PV-POA (ONG-Parceiros Voluntários) e o Albergue João Paulo II. Através da análise documental, da observação e de entrevistas com voluntários e gestores, as organizações selecionadas são abordadas como campos de ação, reconstituindo-se interesses e capitais em interação/conflito, identificando-se práticas de gestão que contribuem para o fortalecimento da competitividade de organizações sem fins lucrativos. A construção da rede, formação social estruturada em relações dinâmicas e flexíveis, foi observada, aqui, como a configuração organizacional instauradora de criatividade na gestão e potencializadora de diferenciais competitivos entre as atividades da Unidade PVPOA e do Albergue, gerando condições, ademais, de fortalecer laços em torno da ação voluntária.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objeto desse estudo foram vidas humanas, sujeitos auto-eco-organizadores que possuem em comum o trabalho com o lixo. Seu suporte empírico foram as experiências de trabalho de catadores do antigo lixão da zona norte de Porto Alegre, hoje organizados em associação, a Associação dos Recicladores de Resíduos da Zona Norte. A partir desse universo, buscou-se compreender como esta atividade acabou sustentando – ou ressignificando - certos valores que, mesmo sem eliminá-la, transcenderam a vida individual, culminando num processo educativo de todos os envolvidos; como esses sujeitos, no convívio cotidiano acabaram tecendo um movimento transformador e organizador de mudanças transcendendo à ordem da sua realidade prática. Ou seja, como, ao coexistirem coletivamente com representações de desordem (o lixo, o mal, a miséria), subverteram o esperado e anunciado, explorando possibilidades e organizando-se a partir delas As experiências dos recicladores culminaram na construção e vivência de um conhecimento-emancipação, oriundo das interações, da possibilidade obsedante do estar-junto (Maffesoli,1996). A ajuda associativa, a divisão do trabalho e as sociabilidades de vizinhanças interagiram na emergência de um sujeito ético, político e estético, detentor de uma subjetividade não conformista. Tais experiências - vividas dentro de um contexto em que predominam determinadas representações de moral, do belo e de poder – transformaram o acontecer cotidiano numa instância de alianças “entre o bem e o mal, da conformidade e do nefasto, da ordem e da desordem” (Balandier,1997a:102), onde o todo, que circunda o significado do lixo, se configura enquanto um valor meta-positivo, capaz de contribuir não apenas na emancipação individual, mas também coletiva A vivência e a compreensão dessas experiências oportunizaram que as aproximações teóricas sobre homem e trabalho direcionassem à idéia de que, no âmago dessa socialidade, estão presentes o princípio da solidariedade (pela dimensão ética), o princípio da participação e do redimensionamento do espaço de ação da cidadania (pela dimensão política) e o princípio do prazer, da emoção compartilhada (pela dimensão da estética), transformando o estar-junto cotidiano como aquilo que promove o enraizamento, permitindo um entrecruzamento de microvalores sejam eles sociais, culturais ou produtivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho visou a utilização da energia solar na cura de pré-fabricados de concreto. Para tanto, foi utilizado dois modelos. O primeiro modelo constou da utilização de coletores solares planos, ligados até uma câmara de cura por um sistema de dutos; A radiação direta do sol incide sobre os coletores, que acumulam energia, que é removida pela água que circula pelos mesmos, levando essa energia através do sistema de distribuição (dutos) até a câmara de cura; Essa câmara, possui uma pista metálica em sua base, onde a energia é cedida para os pré-fabricados de concreto; Esse ciclo de captação distribuição e consumo é repetido a cada hora do dia, onde há radiação solar; Um segundo modelo constou de uma heliocâmara, princípio de um destilador solar convencional, onde a radiação incide diretamente sobre a câmara de cura; A radiação, penetra pela cobertura e forma-se um efeito estufa no interior da câmara, aquecendo seu interior e consequentemente os pré-fabricados de concreto; Avaliou-se os dois sistemas para as estações de verão e inverno na cidade de Porto Alegre (dias típicos) e concluiu-se que para o verão, tanto o sistema com coletores solares quanto o sistema com heliocâmaras poderão ser utilizados. No período de inverno, nenhum destes sistemas serão satisfatórios, porém suas utilizações serão viáveis em conjunto com uma fonte de energia alternativa; A energia solar constitui-se assim numa importante fonte de energia a ser utilizada em pré-fabricados de concreto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho apresenta-se um estudo numérico do escoamento de ar em um ambiente interno tridimensional típico, sujeito a um sistema de ventilação por deslocamento. O estudo numérico consiste na obtenção dos campos de velocidade e temperatura presentes no interior deste ambiente. A determinação dos campos de velocidade e temperatura é necessária na avaliação precisa das condições de conforto térmico, produzidas por um determinado sistema de climatização. Este tipo de estudo não serve somente para determinar a viabilidade da aplicação de um determinado sistema de distribuição de ar, mas através dele também se pode determinar as condições ótimas de uso deste sistema. De forma crescente observa-se o interesse dos projetistas de ar condicionado em aperfeiçoar as suas técnicas de cálculo, de modo que a simulação numérica poderá tornar-se uma técnica usual em pouco tempo. Atualmente duas técnicas estão disponíveis para o estudo do escoamento de ar em ambientes internos: investigação experimental e simulação numérica. Em princípio, medidas diretas dão informações mais realísticas relativas ao escoamento do ar interno, contudo, medições experimentais são muito caras e consomem muito tempo, inviabilizando a sua aplicação caso a caso. Devido às limitações da investigação experimental e à disponibilidade de computadores cada vez mais rápidos, o uso da simulação numérica surge como uma opção considerável nos dias de hoje O método de solução numérica, utilizado no presente trabalho, baseia-se na resolução das equações de conservação de massa, de quantidade de movimento e de energia, em um domínio de cálculo discretizado com o uso do Método dos Volumes Finitos. Os efeitos da turbulência são levados em conta através da utilização do modelo de turbulência K- ε e de um modelo de turbulência simplificado. Resultados bem convergidos para o problema abordado somente são obtidos com a utilização do modelo de turbulência simplificado. As simulações numéricas apresentadas no presente trabalho foram realizadas com o uso do código Fluent. Com base na comparação dos resultados numéricos obtidos no presente trabalho e os resultados experimentais de Yuan et al., 1999a, pode-se concluir que o modelo simplificado é adequado, ao menos provisoriamente, para determinar a distribuição de velocidade e de temperatura no escoamento de ar em ambientes internos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.